In occasione del Global Accessibility Awareness Day, Meta ha annunciato nuove funzionalità di accessibilità per gli smart glass Ray-Ban. Sfruttando la fotocamera degli occhiali e Meta AI, gli utenti potranno ricevere descrizioni dettagliate dell’ambiente circostante. Sarà inoltre accessibile la funzionalità Call a Volunteer in collaborazione con Be My Eyes.
Due funzionalità di accessibilità
I Ray-Ban Meta offrono già diverse funzionalità “hands-free” per tutti, come scatto e condivisione delle foto, invio messaggi di testo o vocali, chiamate telefoniche, videochiamate, ascolto musica, traduzione in tempo reale e interazione con Meta AI (anche in Italia).
L’azienda di Menlo Park ha ora aggiunto funzionalità specifiche per gli utenti non vedenti o ipovedenti. Sfruttando la fotocamera degli occhiali e l’intelligenza artificiale sarà possibile ottenere una descrizione dettagliata dell’ambiente circostante. È sufficiente pronunciare il comando “Hey Meta, dimmi cosa vedi“.
La funzionalità può essere attivata nell’app Meta AI nelle impostazioni del dispositivo. Sarà disponibile nelle prossime settimane, inizialmente in Canada e Stati Uniti (successivamente in altri paesi).
La seconda funzionalità è Call a Volunteer. Era disponibile da novembre 2024 solo in Australia, Canada, Stati Uniti, Regno Unito e Irlanda. Arriverà entro fine mesi in tutti i 18 paesi dove Meta AI è supportato. Permette alle persone non vedenti o ipovedenti di collegarsi ad una rete di volontari vedenti. Il volontario vedrà ciò che viene inquadrato dalla fotocamera degli occhiali della persona non vedente o ipovedente e fornirà descrizioni attraverso gli altoparlanti.
I Ray-Ban Meta hanno ottenuto un grande successo. Sono state vendute oltre 2 milioni di unità. Entro fine 2025 dovrebbe essere annunciata una versione con schermo.