Meta ha recentemente annunciato l'introduzione di tre nuove funzionalità per i suoi occhiali smart Ray-Ban: intelligenza artificiale (AI) dal vivo, traduzioni dal vivo e Shazam.
Le funzioni di AI e traduzione dal vivo sono riservate ai membri del programma di accesso anticipato di Meta, mentre il supporto per Shazam è disponibile per tutti gli utenti negli Stati Uniti e in Canada.
L'AI dal vivo permette di interagire con un assistente virtuale mentre osserva l'ambiente circostante, ad esempio suggerendo ricette in base agli ingredienti che si stanno guardando.
La traduzione dal vivo consente la traduzione in tempo reale di conversazioni tra inglese e spagnolo, francese o italiano, con l'opzione di ascoltare le traduzioni negli occhiali o visualizzare i testi sul telefono. La funzione di Shazam identifica i brani musicali su richiesta.
Per accedere a queste novità, è necessario verificare di avere la versione software v11 sugli occhiali e la v196 dell'app Meta View.
Che futuro hanno gli smart glasses?
Il futuro è promettente. Nel 2024, il mercato globale è stato valutato a circa 1,93 miliardi di dollari e si prevede un'espansione con un tasso di crescita annuale composto (CAGR) del 27,3% dal 2025 al 2030. Questa espansione è alimentata dall'integrazione di tecnologie come l'intelligenza artificiale (AI) e la realtà aumentata (AR). Aziende di punta sono Google, Samsung e Meta. L'adozione di questi dispositivi sta aumentando in settori come l'industria, la sanità e l'intrattenimento.
Questo testo è un riassunto del seguente articolo (eng):
Alternativa in italiano: