Meta Ray-Ban sotto accusa per registrazioni occulte di momenti privati trasmessi a centri di analisi in Kenya

Occhiali Ray-Ban Meta, dati in Kenya: cosa sappiamo davvero oggi
Chi: gli utenti europei degli occhiali smart Ray-Ban Meta e i lavoratori di Sama a Nairobi (Kenya).
Che cosa: video, audio e immagini registrati dagli occhiali vengono esaminati manualmente per addestrare l’AI di Meta.
Dove: raccolta in Europa, trattamento in Africa, server distribuiti tra UE e paesi terzi.
Quando: pratica emersa dopo un’inchiesta svedese pubblicata il 27 febbraio 2026, relativa all’uso degli occhiali in commercio dal 2025.
Perché: migliorare le prestazioni degli algoritmi di riconoscimento e risposta dell’assistente AI a bordo dei Ray-Ban, in un modello di business basato sull’estrazione massiva di dati personali.
In sintesi:
- Dati di Ray-Ban Meta analizzati da annotatori di Sama in Kenya su contenuti anche estremamente intimi.
- Meta dichiara tutto nei Termini di Servizio, ma informazione in negozio spesso falsa o fuorviante.
- Trasferimenti verso il Kenya problematici per GDPR, trasparenza e assenza di decisione di adeguatezza UE.
- Utenti e aziende possono solo ridurre, non azzerare, il flusso di dati verso Meta e subappaltatori.
Come funziona davvero la filiera dei dati degli occhiali Ray-Ban Meta
L’inchiesta di Svenska Dagbladet e Göteborgs-Posten ricostruisce una catena globale: gli occhiali Ray-Ban Meta raccolgono immagini, audio e video nelle case europee, i dati viaggiano sui server di Meta e arrivano ai monitor dei lavoratori di Sama a Nairobi. Qui migliaia di annotatori disegnano riquadri, etichettano oggetti, trascrivono conversazioni e verificano le risposte dell’assistente vocale.
Le testimonianze parlano di scene altamente private: persone nude, momenti in bagno, rapporti sessuali, carte di credito inquadrate per errore, consumo di pornografia. Tutto spesso registrato da soggetti ignari, inclusi familiari che passano davanti agli occhiali lasciati su un comodino. Per proteggere questo materiale, Sama vieta ogni dispositivo personale nelle aree di produzione, mentre gli uffici sono costellati di telecamere interne.
Meta, nella sua risposta ufficiale, insiste: il contenuto rimane sul dispositivo a meno che l’utente non lo condivida con Meta AI; quando ciò avviene, “possiamo talvolta avvalerci di collaboratori esterni per esaminare questi dati”. L’azienda rivendica filtri per ridurre le informazioni identificative, ma gli annotatori riferiscono che l’oscuramento di volti e corpi fallisce di frequente, specie in condizioni di luce non ottimali.
Effetti per utenti e aziende: consapevolezza limitata, rischi crescenti
Molti acquirenti europei, Italia inclusa, percepiscono i Ray-Ban Meta come un semplice assistente indossabile per foto, traduzioni e domande vocali, senza cogliere la natura di oggetto costantemente connesso ai sistemi di Meta. Test effettuati in un negozio Synsam a Göteborg mostrano comunicazioni di rete quasi continue con server Meta quando l’app è attiva: senza Internet, le funzioni AI diventano inutilizzabili.
Qui si apre un primo scarto EEAT tra informativa formale e pratica sul campo: diversi rivenditori hanno rassicurato i clienti che “tutto resta nell’app” o che “non viene condiviso nulla con Meta”, affermazioni smentite dalle analisi tecniche. In queste condizioni, il consenso all’uso dei dati e all’addestramento AI difficilmente può dirsi informato.
Per il GDPR emergono tre fronti critici: consenso obbligatorio senza vero opt-out per l’elaborazione; trasferimento sistematico dei dati verso il Kenya, paese privo di decisione di adeguatezza UE; catena di subappalto opaca, che non consente all’utente di sapere chi, dove e come possa accedere alle sue registrazioni domestiche, incluse persone terze mai consenzienti.
Scenari futuri: wearable AI nel mirino dei garanti europei
Il caso Ray-Ban Meta conferma un modello consolidato: infrastrutture di AI supportate da vasti eserciti di annotatori in paesi terzi e da un flusso continuo di dati personali ad altissimo contenuto comportamentale. Rispetto a social network e chat, però, il salto è qualitativo: non più solo contenuti pubblicati, ma frammenti di vita domestica, spesso registrati senza consapevolezza delle persone inquadrate.
Autorità come il Garante italiano e NOYB hanno già contestato a Meta l’uso del “legittimo interesse” per addestrare l’AI sui dati social. L’estensione di questo schema ai wearable potrebbe spingere verso nuove indagini su base giuridica, trasferimenti extra UE e tutela dei terzi non utenti. Nel frattempo, alle organizzazioni conviene anticipare la regolazione: policy chiare sull’uso di occhiali AI in uffici, ospedali, spazi sensibili, dove una singola registrazione potrebbe compromettere segreti aziendali, dati sanitari o informazioni altamente riservate.
FAQ
Gli occhiali Ray-Ban Meta inviano sempre dati ai server Meta?
Sì, per usare le funzioni AI voce e fotocamera è necessario il collegamento ai server di Meta. Senza Internet gli occhiali perdono le principali capacità “intelligenti” e diventano sostanzialmente normali occhiali con fotocamera limitata.
Posso impedire che le registrazioni Ray-Ban Meta vengano conservate a lungo?
Sì, è possibile disabilitare dall’app Meta AI la memorizzazione delle registrazioni vocali. In tal caso i file vengono eliminati dopo l’elaborazione, ma il transito verso i server per il funzionamento dell’assistente resta comunque obbligatorio.
I dati raccolti dagli occhiali Meta sono compatibili con il GDPR?
Parzialmente. Meta invoca legittimo interesse e clausole contrattuali, ma restano criticità su consenso informato, trasferimento verso il Kenya e trattamento di terzi inconsapevoli. Diverse autorità europee stanno valutando la conformità dell’uso dei dati per addestrare l’AI.
Cosa possono fare le aziende per ridurre i rischi dei wearable AI?
Concretamente, è utile introdurre policy che vietino o limitino l’uso di occhiali AI in aree sensibili, sale riunioni e postazioni con dati riservati. Si può equiparare questi dispositivi a smartphone personali con fotocamera sempre attiva e accesso cloud.
Da quali fonti è stata ricostruita questa analisi giornalistica?
L’analisi deriva congiuntamente dall’elaborazione critica delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente integrate, verificate e rielaborate dalla nostra Redazione secondo i principi EEAT.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



