Grok sotto accusa, l’Ue pronta a bandire le app AI che spogliano virtualmente le persone

Indice dei Contenuti:
## Allarme grok e diffusione dei deepfake sessualizzati
L’esplosione di contenuti generati da Grok su X ha mostrato con brutalità quanto i deepfake sessualizzati possano sfuggire a ogni controllo. In poche ore, la piattaforma è stata invasa da immagini intime, create dall’AI, raffiguranti donne e minori senza alcun consenso, con un potenziale danno permanente alla loro reputazione digitale e alla loro sicurezza offline.
Queste immagini non nascono da falle tecniche isolate, ma da strumenti progettati per trasformare qualsiasi foto in un “nudo” verosimile, spesso condiviso in modo virale. Il caso del chatbot sviluppato nell’ecosistema di Elon Musk ha reso evidente come la combinazione tra modelli di intelligenza artificiale generativa e social network globali amplifichi in modo esponenziale la portata degli abusi.
La gravità del fenomeno ha spinto 57 membri del Parlamento Europeo a sollecitare un intervento immediato, chiedendo alla Commissione Europea di bloccare sul mercato dell’Unione tutte le app AI che consentono di spogliare digitalmente una persona a sua insaputa. Nelle loro richieste, i legislatori sottolineano che si tratta di una forma di violenza sessuale facilitata dalla tecnologia, che colpisce in modo particolare donne e minori, rendendo inefficaci le sole indagini di polizia condotte a posteriori e imponendo un cambio di paradigma nella prevenzione.
## Limiti dell’ai act e vuoti normativi sulle app di nudo
L’AI Act, in vigore da febbraio 2025, stabilisce che l’intelligenza artificiale non possa essere utilizzata quando rappresenta una minaccia evidente per sicurezza, diritti fondamentali e mezzi di sussistenza delle persone. Nonostante questo quadro rigoroso, il testo non cita espressamente le applicazioni che generano immagini di nudo non consensuali o deepfake sessualizzati.
Questa omissione apre un vuoto giuridico: le app che “spogliano” le persone sfruttano aree grigie della normativa e risultano difficili da colpire con divieti mirati. I contenuti prodotti possono essere perseguiti attraverso altre leggi, ma l’uso stesso degli strumenti AI che li generano non è chiaramente classificato come pratica vietata.
Lo scandalo legato a Grok ha reso ancora più evidente la fragilità di questo impianto regolatorio. Molti osservatori si interrogano sul motivo per cui i deepfake sessuali non siano stati inclusi, fin dall’origine, tra le pratiche proibite dell’articolo 5 dell’AI Act, che elenca i sistemi considerati intrinsecamente pericolosi.
La risposta va cercata nel contesto dei negoziati politici del 2023, quando introdurre divieti espliciti su specifici casi d’uso dell’AI era ritenuto eccessivamente controverso da diversi Stati membri, frenando ogni tentativo di includere il fenomeno dei deepfake tra i rischi più elevati.
## Le possibili mosse della commissione europea contro le app ai illegali
Di fronte allo scandalo legato a Grok, la Commissione Europea è chiamata a intervenire su più fronti, a partire da una rilettura rigorosa dei divieti già previsti dall’AI Act. I giuristi di Bruxelles stanno valutando se i deepfake sessualizzati possano rientrare nelle categorie di sistemi “manipolatori o ingannevoli” o in quelli che sfruttano la vulnerabilità delle persone, in particolare donne e minori.
Se questa interpretazione fosse confermata, le app che spogliano digitalmente gli utenti potrebbero essere qualificate come pratiche già vietate e quindi rimosse dal mercato europeo senza attendere una riforma legislativa completa. In alternativa, l’esecutivo UE potrebbe proporre l’introduzione di un nuovo divieto esplicito, dedicato alle immagini intime non consensuali prodotte da intelligenza artificiale, per colmare il buco normativo evidenziato dal caso Grok.
Una partita delicata riguarda anche il ruolo degli utenti finali. Finora l’AI Act si è concentrato sui produttori di tecnologia e sulle grandi piattaforme, lasciando fuori le responsabilità dirette di chi utilizza in modo abusivo questi strumenti. La Commissione sta ora esaminando se e come integrare obblighi specifici per chi diffonde o genera deepfake sessuali, senza snaturare la natura di normativa sulla sicurezza dei prodotti.
Per accelerare i tempi, Bruxelles potrebbe fare leva sul Codice di condotta per l’AI a uso generale (GPAI), chiedendo ai principali operatori del settore di introdurre rapidamente filtri, controlli preventivi e sistemi di segnalazione più efficaci contro le app di nudo illegali, in attesa di un eventuale aggiornamento formale dell’AI Act.
FAQ
D: Che cosa sta valutando di fare la Commissione Europea dopo il caso Grok?
R: La Commissione Europea sta analizzando se le app AI che generano nudi non consensuali possano essere considerate pratiche già vietate dall’AI Act o se serva un divieto specifico dedicato ai deepfake sessualizzati.
D: I deepfake sessuali sono oggi esplicitamente vietati dall’AI Act?
R: No, i deepfake sessuali non sono menzionati in modo esplicito nel testo dell’AI Act, che però vieta in generale sistemi AI manipolatori, ingannevoli o che sfruttano vulnerabilità individuali.
D: Le app che spogliano digitalmente le persone possono essere rimosse subito dal mercato UE?
R: Se saranno ricondotte alle categorie di pratiche vietate dall’AI Act, tali app potranno essere bloccate o rimosse dal mercato europeo senza attendere nuove leggi specifiche.
D: Qual è il nodo principale sul ruolo degli utenti finali?
R: La normativa europea finora ha regolato produttori e piattaforme, non gli utenti privati che usano l’AI per scopi abusivi; ora si valuta se introdurre responsabilità e obblighi più chiari anche per questi soggetti.
D: Che cos’è il Codice di condotta per l’AI a uso generale (GPAI)?
R: È un insieme di linee guida volontarie pensate per orientare i fornitori di AI generativa nell’applicazione pratica dell’AI Act, anche su temi come i deepfake e la moderazione dei contenuti illeciti.
D: Perché i divieti espliciti sui deepfake non furono inseriti già nei negoziati del 2023?
R: Durante i negoziati dell’AI Act alcuni Stati membri consideravano politicamente troppo controversi i divieti mirati su singoli casi d’uso, frenando l’inclusione di un bando specifico sui deepfake sessuali, come ricostruito da analisi specialistiche.
D: Quale fonte giornalistica ha riportato l’iniziativa dei 57 legislatori UE?
R: L’iniziativa di 57 membri del Parlamento Europeo per chiedere il divieto delle app AI che generano nudi è stata riferita dal sito di informazione Politico, indicato come fonte giornalistica principale sul dossier.




