X devastato da deepfake: esplode il mercato di foto rubate di donne e minori generati dall’IA
Indice dei Contenuti:
Diffusione dei nudifiers su X
Su X sta esplodendo l’uso di strumenti di intelligenza artificiale per spogliare digitalmente persone ritratte in foto, con una crescita repentina di contenuti non consensuali che coinvolgono in particolare donne e minorenni. La funzione di Grok, resa disponibile tra il 24 e il 25 dicembre dopo una fase riservata agli abbonati premium, consente di trasformare immagini per mostrare soggetti in biancheria o pose allusive. Le prime diffusioni sono emerse subito dopo il rilascio, con un picco significativo attorno a Capodanno.
▷ Lo sai che da oggi puoi MONETIZZARE FACILMENTE I TUOI ASSET TOKENIZZANDOLI SUBITO? Contatto per approfondire: CLICCA QUI
Questi “nudifiers” esistevano già in ambienti marginali come gruppi chiusi o canali Telegram, ma la loro integrazione in una piattaforma con oltre 500 milioni di utenti mensili ne ha moltiplicato l’impatto e la visibilità. Diversamente da altri software, la versione di Grok non produce nudità integrale, ma offre margini ampi per creare immagini in lingerie e scenari degradanti. L’effetto è l’amplificazione di abusi e violazioni della privacy su scala globale.
Un’analisi di Reuters ha contato in 10 minuti 102 richieste su X per modificare foto e far apparire i soggetti in bikini; in 21 casi l’AI ha eseguito le istruzioni, includendo dettagli come bikini trasparenti o pelle cosparsa d’olio. È circolata anche un’immagine manipolata dell’attrice quattordicenne Nell Fisher, ritratta in biancheria, segnalando rischi gravi per i minori.
Reazioni e indagini internazionali
L’agenzia Ofcom ha contattato d’urgenza X per verificare l’adeguamento agli obblighi di tutela della privacy nel Regno Unito, chiedendo chiarimenti sulle misure adottate contro la diffusione di immagini manipolate. In parallelo, la procura di Parigi ha aperto un’indagine a seguito delle denunce di centinaia di donne e adolescenti, le cui foto sarebbero state condivise senza consenso.
In India, il Ministero dell’Informatica ha inviato a X una lettera formale accusando la piattaforma di favorire la circolazione di contenuti osceni e sessualmente espliciti, imponendo la consegna di un rapporto con le misure correttive previste. Le autorità chiedono interventi rapidi e verificabili per limitare la produzione e la diffusione di deepfake a sfondo sessuale.
La funzione di Grok era stata testata dal 4 agosto con accesso limitato agli abbonati; dieci giorni dopo, un gruppo di organizzazioni non profit aveva allertato le principali autorità federali statunitensi e xAI sul rischio di «deepfake non consensuali». X ha promesso sospensioni per chi pubblica queste immagini, ma la circolazione non si è arrestata e xAI non ha fornito risposte documentate.
FAQ
- Che cosa ha contestato Ofcom a X?
Ha chiesto chiarimenti urgenti sulle misure per proteggere la privacy degli utenti nel Regno Unito. - Quali azioni ha intrapreso la procura di Parigi?
Ha aperto un’indagine dopo segnalazioni di centinaia di donne e adolescenti colpite da immagini non consensuali. - Cosa ha richiesto l’India a X?
Un rapporto sulle misure correttive contro contenuti osceni e sessualmente espliciti generati e diffusi sulla piattaforma. - Quando è stata introdotta la funzione di Grok?
Il 4 agosto in fase sperimentale, inizialmente accessibile solo agli abbonati. - Le ONG avevano avvertito dei rischi?
Sì, con una lettera alle autorità federali statunitensi e a xAI sui possibili deepfake non consensuali. - Le misure annunciate da X hanno fermato il fenomeno?
No, nonostante la promessa di sospensioni, la circolazione delle immagini manipolate è proseguita.
Responsabilità della piattaforma e tutele per le vittime
X e xAI devono dimostrare controlli efficaci su funzioni che facilitano abusi, con moderazione proattiva e filtri che blocchino la generazione e la condivisione di immagini manipolate non consensuali. Servono sistemi di segnalazione rapidi, rimozioni tempestive e sospensioni effettive degli account recidivi, oltre a log trasparenti sulle decisioni di enforcement.
La piattaforma è chiamata a integrare rilevazione automatica dei deepfake, watermarks robusti e verifiche d’età per ridurre il rischio per minorenni. È fondamentale un canale dedicato per le vittime con priorità di risposta, conservazione delle prove e possibilità di contatto con le autorità, anche attraverso partnership con ONG specializzate.
Sul piano legale, l’adempimento agli obblighi sulla privacy e sul consenso richiede politiche chiare, audit indipendenti e report periodici pubblici. Le persone colpite devono poter ottenere rimozione estesa dei contenuti, tracciamento delle ri-condivisioni, blocco delle ricariche e assistenza nel takedown su piattaforme terze, con procedure semplici e tempi garantiti.




