Ray-Ban Meta sotto esame privacy svelato il ruolo nascosto dei dati nell’addestramento dell’intelligenza artificiale

Ray-Ban Meta, privacy sotto accusa: cosa rischiano utenti e aziende
I Ray-Ban Meta smart glasses, prodotti da EssilorLuxottica e Meta Platforms, sono al centro di indagini internazionali su privacy e trattamento dei dati. L’inchiesta nasce in Svezia, dove giornalisti locali hanno scoperto che lavoratori di un subappaltatore in Kenya analizzerebbero i video registrati dagli occhiali.
Secondo una testimonianza anonima, i revisori visualizzerebbero anche contenuti estremamente sensibili, potenzialmente raccolti oggi e analizzati continuativamente.
Le verifiche si concentrano su un punto cruciale: gli utenti sapevano che le loro registrazioni potevano essere visionate da persone fisiche e non solo da sistemi di intelligenza artificiale? La risposta a questa domanda determinerà l’esito delle azioni legali e il futuro dei wearable basati su AI.
In sintesi:
- Indagine partita dalla Svezia su video dei Ray-Ban Meta analizzati da lavoratori in Kenya.
- Contenuti sensibili: dati bancari, nudità, rapporti sessuali e scene in bagno.
- Meta sostiene che la revisione umana avvenga solo su contenuti condivisi volontariamente.
- Class action negli USA e verifiche dell’ICO nel Regno Unito su privacy e trasparenza.
Class action, data annotator e nodo del consenso informato
Durante l’inchiesta svedese, un lavoratore keniano ha riferito che, tra i video analizzati, comparirebbero anche password, carte di pagamento, momenti di intimità e persone riprese in bagno.
I ricorrenti accusano Meta di violare privacy e norme sui consumatori, contestando campagne ritenute fuorvianti: l’utente non sarebbe stato informato in modo chiaro che i filmati potessero essere esaminati da revisori umani.
Meta replica che l’analisi manuale riguarderebbe solo materiali condivisi volontariamente e che verrebbero applicate tecniche di mitigazione del rischio, come il blurring dei volti e la rimozione di elementi identificativi.
Al centro della vicenda ci sono i data annotator, lavoratori che etichettano immagini, testi, audio e video per addestrare gli algoritmi.
Questa figura dimostra come l’AI non elimini il lavoro umano, ma lo delocalizzi in contesti periferici, spesso caratterizzati da bassa tutela e scarsa visibilità.
Il caso Ray-Ban Meta ha rapidamente superato i confini svedesi: negli Stati Uniti è stata avviata una class action federale contro Meta, mentre nel Regno Unito l’Information Commissioner’s Office (ICO) ha aperto verifiche preliminari su Meta ed EssilorLuxottica.
GDPR, AI Act e nuove responsabilità per i dispositivi indossabili
Il GDPR distingue con precisione tra dati personali e dati effettivamente anonimi. Il considerando 26 chiarisce che l’anonimizzazione deve rendere impossibile identificare una persona, anche indirettamente.
Nella pratica, tecniche come randomizzazione, mascheramento e generalizzazione riducono il rischio ma non lo azzerano: collegando diversi database, orari, luoghi e contesto visivo è spesso possibile re-identificare i soggetti ripresi.
Con i Ray-Ban Meta, le immagini ambientali possono includere terzi che non hanno mai espresso consenso, rendendo cruciale la scelta di una solida base giuridica del trattamento.
L’art. 6 GDPR impone al titolare di individuare e dichiarare in anticipo la base giuridica (consenso, contratto, legittimo interesse, ecc.), dimostrandone sempre la correttezza.
Quando sono coinvolti dati sensibili ai sensi dell’art. 9 GDPR (es. salute, vita sessuale, dati biometrici), il trattamento è vietato salvo specifiche eccezioni o esplicito consenso inequivocabile.
Inoltre, si applicano i principi di minimizzazione e necessità: i dati devono essere limitati, pertinenti e proporzionati alle finalità dichiarate, evitando qualsiasi raccolta superflua.
L’AI Act dell’Unione Europea aggiunge un ulteriore livello di obblighi. L’art. 50 prevede specifici requisiti di trasparenza per i sistemi di IA che interagiscono con gli utenti, riconoscono emozioni o dati biometrici, o generano e manipolano contenuti (es. deepfake).
Fornitori e utilizzatori devono informare chiaramente quando una persona interagisce con un sistema di AI e rendere riconoscibili i contenuti generati.
Per i sistemi ad alto rischio è richiesta anche documentazione dettagliata, gestione strutturata del rischio e supervisione umana tracciabile, la cui assenza integra violazione dell’art. 50.
Nel caso di un dispositivo come i Ray-Ban Meta, che registra costantemente l’ambiente, emergono tre esigenze convergenti:
progettazione privacy-by-design, con funzioni limitate e configurazioni conservative di default;
informative estremamente chiare e multilivello, fruibili dall’utente medio prima dell’acquisto;
strumenti semplici per controllare, interrompere e cancellare le registrazioni, anche a tutela dei soggetti terzi inquadrati inconsapevolmente.
Occhiali smart e futuro della sorveglianza diffusa
Questo caso segna un precedente per tutti i wearable dotati di videocamera e AI integrata.
Se regolati in modo inadeguato, tali dispositivi possono trasformarsi in strumenti di sorveglianza diffusa, difficilmente percepita dai cittadini filmati.
Le autorità dovranno definire rapidamente linee guida tecniche e giuridiche su registrazione continua, ruolo dei data annotator e limiti all’uso dei dati sensibili, altrimenti la sfiducia verso l’AI potrebbe rallentare l’adozione stessa dell’innovazione.
FAQ
Cosa sono esattamente i Ray-Ban Meta smart glasses?
Si tratta di occhiali smart sviluppati da Ray-Ban e Meta, dotati di videocamera, microfoni e funzioni di intelligenza artificiale integrate.
Perché i Ray-Ban Meta sollevano problemi di privacy?
Sollevano criticità perché registrano continuamente l’ambiente, includendo terzi ignari, e parte dei contenuti può essere analizzata da revisori umani.
Chi sono i data annotator coinvolti nel caso Ray-Ban Meta?
Sono lavoratori, spesso in paesi come il Kenya, che etichettano video e immagini per addestrare gli algoritmi di intelligenza artificiale.
Come può un’azienda usare l’AI rispettando il GDPR?
Deve definire una base giuridica chiara, applicare minimizzazione dei dati, anonimizzazione robusta, informative trasparenti e meccanismi semplici di consenso e revoca.
Qual è la fonte delle informazioni su questo caso di privacy?
Le informazioni derivano da una elaborazione congiunta di contenuti Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborati dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



