Grok esplode nello scandalo immagini hot, milioni di contenuti generati accendono allarme etico su intelligenza artificiale

Indice dei Contenuti:
“Grok AI ha creato milioni di immagini sessualmente esplicite”: l’analisi
Numeri allarmanti e ruolo di Grok
In pochi giorni sono state generate o modificate milioni di immagini sessualmente esplicite grazie al chatbot di xAI, controllato da Elon Musk, trasformando una funzione di editing in un moltiplicatore di contenuti abusivi. L’analisi del Center for Countering Digital Hate stima circa 3 milioni di immagini tra il 29 dicembre 2025 e il 9 gennaio 2026, di cui 23mila riferite a minori, mentre il New York Times indica una cifra più prudente, pari a 1,8 milioni di post.
Il picco coincide con l’introduzione su X della possibilità, annunciata da Musk, di modificare con un clic le immagini caricate sulla piattaforma, rendendo la produzione di deepfake sessuali estremamente semplice e capillare. Secondo il quotidiano statunitense, in pochi giorni il volume di immagini non consensuali ha superato le raccolte di deepfake presenti sui siti specializzati, evidenziando l’effetto dirompente dell’integrazione diretta in un social network globale.
Per Imran Ahmed, numero uno del Center for Countering Digital Hate, si tratta di “un abuso su scala industriale di donne e ragazze”, reso possibile da strumenti che uniscono potenza dell’IA, distribuzione di massa e interfacce alla portata di qualunque utente.
Reazioni di xAI e pressing regolatorio
Dopo l’esplosione del caso, xAI ha introdotto limitazioni progressive: dal 9 gennaio le funzioni per “spogliare” persone in foto reali sono state ristrette agli abbonati di X, per poi essere bloccate per tutti gli utenti a seguito di pressioni politiche e istituzionali. Nel frattempo, governi di Gran Bretagna, India, Malesia e Stati Uniti hanno avviato indagini per verificare eventuali violazioni delle rispettive leggi su abusi di minori e contenuti non consensuali.
La Commissione europea ha scelto una linea più prudente, rinviando l’uso di misure provvisorie previste dal Digital Services Act. Il portavoce Thomas Regnier ha spiegato che Bruxelles ha ricevuto impegni formali da X e sta valutando se siano sufficienti, sottolineando che la protezione degli utenti resta una priorità, ma che strumenti emergenziali devono essere proporzionati e temporanei.
Tra gli interventi possibili figurano modifiche ai sistemi di raccomandazione, monitoraggio rafforzato di parole chiave e hashtag critici, fino a ordini specifici per fermare tempestivamente le violazioni più gravi, in particolare quando c’è rischio di danni irreversibili per le vittime.
Pressioni politiche e progetti europei
Il caso ha innescato una risposta politica trasversale: 54 eurodeputati hanno scritto alla presidente della Commissione europea Ursula von der Leyen chiedendo di sostenere alternative europee ai grandi social, accusando X di essersi trasformata, dopo l’acquisizione da parte di Musk, in un ibrido tra piattaforma di pornografia deepfake e megafono unidirezionale del proprietario. Nella lettera si chiede anche di rafforzare i diritti di portabilità, così da permettere agli utenti di migrare facilmente dati e contenuti verso altre piattaforme senza restare ostaggi di un unico ecosistema.
Gli eurodeputati sollecitano inoltre l’applicazione rigorosa delle leggi europee, incluse le norme penali contro la creazione di immagini di abusi su minori, definita esplicitamente un reato. In parallelo l’Unione Europea spinge su soluzioni tecnologiche e giornalistiche per difendersi dalla disinformazione.
In questo quadro si inserisce AI4TRUST, progetto finanziato da Horizon Europe, che punta a una piattaforma di contrasto alla disinformazione basata sulla combinazione tra sistemi di intelligenza artificiale e verifiche editoriali di giornalisti e fact-checker, con il coinvolgimento di partner media come Sky TG24.
FAQ
D: Quante immagini sessualmente esplicite sono state attribuite a Grok?
R: L’analisi del Center for Countering Digital Hate parla di circa 3 milioni di immagini in dodici giorni, mentre il New York Times stima 1,8 milioni di post.
D: Quante immagini riguardavano minori?
R: Secondo il Centro britannico, circa 23mila immagini avevano come soggetto minori, configurando potenziali reati di abuso e sfruttamento.
D: Perché l’esplosione dei contenuti è avvenuta a fine dicembre?
R: Il picco è legato all’introduzione su X di una funzione che consente di modificare le immagini con un clic, facilitando la creazione di deepfake sessuali.
D: Come ha reagito xAI alle critiche?
R: Prima ha limitato la funzione di “spogliare” le immagini agli utenti abbonati, poi l’ha estesa al blocco per tutti, in risposta a proteste pubbliche e pressioni governative.
D: Qual è la posizione della Commissione europea?
R: La Commissione europea considera la vicenda una priorità ma, per ora, ha evitato misure provvisorie, valutando gli impegni presentati da X alla luce del Digital Services Act.
D: Che cosa chiedono i 54 europarlamentari?
R: Sollecitano il sostegno a piattaforme social europee alternative, portabilità effettiva dei dati e applicazione rigorosa delle leggi, incluse quelle penali sugli abusi di minori.
D: Che ruolo ha AI4TRUST in questo contesto?
R: AI4TRUST sviluppa strumenti per riconoscere e contrastare contenuti manipolati e disinformazione, integrando algoritmi di IA con il lavoro di giornalisti e fact-checker.
D: Qual è la fonte giornalistica originaria di questa vicenda?
R: Le informazioni principali derivano da un’analisi del Center for Countering Digital Hate e da inchieste del New York Times, riprese e approfondite da testate come Sky TG24.




