Per anni gli smart glasses sono rimasti in una terra di mezzo: troppo “tech” per essere occhiali veri, troppo “occhiali” per competere con smartphone e visori. Negli ultimi due anni, però, il mercato si è mosso e i dati lo evidenziano. Secondo le rilevazioni di Counterpoint Research, le spedizioni globali di smart glasses sono cresciute del +210% anno su anno nel 2024 (dopo un +156% nel 2023), spinte in larga misura dall’adozione dei modelli AI-first e, in particolare, dalla trazione commerciale dei Ray-Ban sviluppati con Meta. Nella prima metà del 2025 la dinamica ha accelerato ancora con un +110% YoY in H1 2025, con gli AI smart glasses arrivati al 78% delle spedizioni (contro 46% in H1 2024 e 66% in H2 2024), segnali chiari secondo i quali la categoria che sta “tirando” non è quella dei visori immersivi, ma quella degli occhiali leggeri che fanno da interfaccia e da assistenti.
Sul fronte delle applicazioni macro XR (l’extended reality), Idc fotografa un passaggio chiave: nelle sue stime aggiornate, le spedizioni mondiali di AR/VR headset insieme ai cosiddetti display-less smart glasses sono attese in crescita +39,2% nel 2025 (perché i dati non sono ancora definitivi) per toccare i 14,3 milioni di unità, con un contributo determinante proprio degli smart glasses e un’esplicita indicazione di mercato: la categoria cresce perché sta diventando la strada più praticabile per portare l’AI “sul volto” senza chiedere al consumatore di indossare un visore. Sempre Idc, nel racconto di mercato che emerge anche dalle cronache industriali di inizio 2026, attribuisce a Meta una quota nell’ordine del 70% nel segmento smart glasses, seguita da player cinesi come Xiaomi e Huawei.

Questi numeri vanno letti insieme a un altro indicatore, più “industrial” che “consumer”. Un esempio su tutti EssilorLuxottica – ha portato scala, canali e design eyewear dentro un prodotto tech – dichiara che sono state vendute oltre 2 milioni di unità di Ray-Ban Meta dalla generazione lanciata tra 2023 e 2024, e che l’obiettivo è spingere la capacità produttiva fino a 20 milioni di unità l’anno entro fine 2026. La lettura è chiara: quando la produzione entra in un ordine di grandezza da elettronica di consumo, cambia anche la percezione del rischio per chi investe su componenti, supply chain, assistenza e software, per cui solo se si riesce a fare economie di scala poi si regge il mercato.
Cambio di passo, dalla realtà aumentata all’AI indossabile
La differenza rispetto alla prima “stagione” degli smart glasses non può essere solo estetica. Deve essere architetturale: oggi il valore si sposta dal tentativo di “aumentare la realtà” con overlay complessi (costosi, energivori, difficili da miniaturizzare) verso un modello in cui gli occhiali si basano su sensori discreti dotati di interfaccia conversazionale. Un cambio di passo che si percepisce su più dimensioni. La prima è la multimodalità (1): non più comandi vocali isolati, ma capacità di combinare input audio e visivo con inferenza AI. Meta ha esplicitato come la componente multimodale sia al centro dell’esperienza Ray-Ban, perché consente all’assistente di “capire” ciò che l’utente sta guardando e di rispondere in modo contestuale. È un passaggio che, lato prodotto, si traduce in funzioni pratiche: domande su ciò che si vede, riconoscimento di oggetti e luoghi, promemoria legati al contesto, fino a traduzioni e trascrizioni “al volo”.

La seconda area è l’AI applicata a casi d’uso quotidiani (2), oltre il semplice effetto demo, tipico dei prototipi mostrati nelle fiere che poi non riescono a scalare. Nel 2024 Meta ha messo in evidenza funzioni come traduzione in tempo reale, domande e risposte su ciò che si sta osservando e integrazioni con servizi media (musica e audiolibri) tramite partnership applicative. Nel 2025 la spinta è proseguita con la generazione dei display, che aggiunge un tassello importante: quando serve, alcune informazioni possono comparire nel campo visivo (didascalie live, traduzioni, preview foto, indicazioni). Qui la sfida è l’equilibrio: introdurre un display senza trasformare gli occhiali in un visore, mantenendo peso, autonomia e sostenibilità sociale (anche per quanto riguarda la privacy).
Terzo punto, l’interazione più naturale (3). L’idea è ridurre la frizione tra intenzione e azione, senza costringere l’utente a tirare fuori il telefono. In questa direzione vanno esperimenti come i sistemi di controllo tramite gesture e wearable complementari, che provano a evitare l’effetto “parlo sempre con gli occhiali” in pubblico e a dare un’alternativa alla sola voce. Infine c’è un fattore spesso sottovalutato: gli occhiali non si “indossano e basta” (4) come una cuffia: incidono su comfort, postura, utilizzo delle lenti graduate, stile. La crescita del mercato in questa fase sembra legata anche alla capacità di stare dentro filiere e marchi dell’occhialeria, non solo dentro i negozi di elettronica. È un tema industriale, ma ha un impatto diretto su adozione e resi.
Lo scenario di mercato, partnership e traiettorie
L’ecosistema oggi è meno lineare di quanto suggerisca l’etichetta smart glasses. Coesistono infatti almeno tre famiglie: occhiali audio+AI (senza display), occhiali con micro-display (informazioni essenziali nel campo visivo), e occhiali AR effetto cinema che solitamente dispongono di uno schermo virtuale per intrattenimento o produttività (spesso collegati via cavo a smartphone/pc). La partita commerciale, nel breve, sembra premiare due proposizioni: l’audio-AI per un’ampia diffusione e costi inferiori e i display glasses come ponte verso l’AR più evoluta.
Per quanto riguarda il mercato consumer il riferimento più maturo resta Meta: la partnership con Ray-Ban ha dato una forma vendibile a una categoria che prima ha sempre solo ispirato l’idea di prototipo. La collaborazione con EssilorLuxottica si è estesa nel tempo oltre che a brand sportivi come Oakley, con una linea dedicata che punta su camera e autonomia migliorate e su un posizionamento più “active”. In parallelo, la strategia di canale è coerente con la natura eyewear del prodotto: presenza in rete e retail del gruppo (e, dove applicabile, catene e store legati all’occhialeria) e una logica di platform che mira alla convivenza di più marchi sopra un nucleo tecnologico comune.

In questa traiettoria si innesta anche il tema del “dopo metaverso”. Negli ultimi trimestri del 2025, il racconto pubblico di Meta si è spostato in modo sempre più netto verso l’AI come asse strategico, con Reality Labs ancora in perdita e un’enfasi crescente su dispositivi e interfacce che rendano l’AI davvero utilizzabile (e in fretta) nella vita reale. Le cronache parlano di perdite per Reality Labs nell’ordine di 19,1 miliardi di dollari nel 2025 e di un riposizionamento che mantiene l’XR come investimento, ma mette al centro gli AI wearables – smart glasses inclusi – come terreno di adozione più plausibile rispetto al metaverso “world-based”. In altre parole: gli occhiali diventano una risposta “concreta” alla stessa ambizione originaria (nuova piattaforma), ma con una UX meno invasiva.
Accanto a Meta, ci sono player che presidiano la fascia smart eyewear più leggera, quindi focalizzata su audio e interazione. In Europa (e in Italia) si vede movimento sul fronte Xiaomi: l’arrivo e la spinta commerciale di modelli impostati come i Mijia Smart Audio Glasses indicano che una parte del mercato punterà su prezzo accessibile e funzioni vocali, senza display e senza AR, per allargare il bacino. La proposta di Huawei va nella stessa direzione con linee che enfatizzano ascolto open-ear, chiamate, comfort e design. Qui la competizione si gioca meno sull’effetto wow e più sull’adozione quotidiana: autonomia, microfoni, privacy sonora, robustezza, qualità costruttiva.

Il 2026, però, è anche l’anno in cui si stanno preparando ingressi “pesanti” sul versante AR/AI con partnership eyewear strutturate. Sul fronte, Google e Samsung stanno lavorando a smart glasses con un’impostazione che combina piattaforma software e design fashion, con il coinvolgimento di Warby Parker e Gentle Monster: l’obiettivo dichiarato, nelle anticipazioni e conferme circolate tra fine 2025 e inizio 2026, è arrivare a modelli consumer nel 2026, con varianti “audio-only” e varianti con display. Questa mossa è rilevante perché ripropone, in forma moderna, la lezione del primo brand Google Glass: senza un’estetica “indossabile” e un ecosistema app coerente, la tecnologia da sola non scala.
Sul tema, Apple che ha provato in diversi step a “guardare oltre…” ad oggi non ha una proposta commerciale smart glasses disponibile (grande l’attesa per gli annunci nel corso di quest’anno), ma diversi report di filiera indicano un’accelerazione interna verso occhiali meta-like, in parallelo (e in parte come alternativa) alle evoluzioni del visore. Per il mercato, Apple conta non perché “conferma” la categoria, perché di fatto fissa sempre un’aspettativa su integrazione, privacy, chip e distribuzione premium. Finché le voci su Apple restano nel perimetro rumor/report, l’impatto è indiretto; ma quando la roadmap diventerà “visibile”, anche gli altri vendor cambieranno postura ed insieme anche le supply chain.
Altro discorso si può fare invece per gli occhiali-display per schermi virtuali e intrattenimento. Qui rientrano marchi come Xreal, che comunica volumi cumulati importanti per un player di nicchia, e diversi player che proprio al Ces hanno alzato l’asticella tecnica. Non si parla però di competizione diretta con gli AI glasses ma allo stesso tempo contribuiscono a far maturare componenti e aspettative d’uso su comfort, lenti, adattatori, compatibilità.
Infine c’è il mercato enterprise/industrial, spesso dimenticato quando si parla di “smart glasses” ma solido: Vuzix, per esempio, continua a posizionare dispositivi per logistica, manutenzione, assistenza remota e workflow guidati, e comunica ordini e spedizioni legati a use case concreti (warehouse, retail, field service). Questo segmento non fa “numeri” come il consumer, ma svolge un ruolo importante: stabilizza la domanda di componenti e software, e produce metriche di Roi che aiutano l’ecosistema a maturare.
2026-2027, biennio spartiacque
Il mercato degli smart glasses cambia pelle perché sta cambiando la promessa. Non più verso il mondo aumentato – promessa affascinante ma difficile e avida di risorse ed energia – bensì verso l’accesso immediato a un assistente contestuale, senza mani e senza schermo. È la stessa logica che spiega perché, nelle stime, la crescita del comparto è trainata dagli occhiali leggeri più che dai visori, e perché la quota AI dentro la categoria cresce così rapidamente come conferma Counterpoint Research.
Lo spartiacque, però, è legato a tre fattori. La qualità dell’assistente (comprensione multimodale, latenza, affidabilità) e il suo perimetro di integrazioni (1). Quindi la risposta di filiera su privacy e “social acceptability”, cioè come vengono gestite camera, indicatori di registrazione e dati, tema che può accelerare o frenare l’adozione in modo drastico (2). Terzo: la convergenza tra piattaforme tech e marchi eyewear (3), perché qui il prodotto è metà tecnologia e metà moda/ergonomia. In questo senso, l’effetto partnership – Meta con EssilorLuxottica, Google con Warby Parker e Gentle Monster (piattaforma Android XR) – non è un dettaglio: è un pezzo della strategia di go-to-market.
Se queste tre condizioni reggono, le proiezioni di crescita sostenuta diventano plausibili: Counterpoint, ad esempio, associa l’accelerazione del 2024-2025 a un momentum che potrebbe proseguire con un Cagr elevato fino al 2029. In controluce, l’ipotesi è che gli smart glasses diventino il “terzo schermo” senza essere schermo: un’interfaccia ambientale, discreta, capace di far lavorare l’AI nel punto in cui serve davvero – mentre ci si muove, si lavora, si fanno acquisti e si viaggia – quasi di sicuro senza chiedere di entrare in un metaverso, ma portando alcune funzioni di quel futuro direttamente nella quotidianità.
© RIPRODUZIONE RISERVATA



































Immagine di rawpixel.com su Freepik




