Unione Europea prepara stretta storica contro le IA che producono deepfake erotiche e violano la dignità umana
Indice dei Contenuti:
Ue modifica l’Ai Act: stop ai deepfake sessuali e più tutele
L’Unione europea ha concordato un aggiornamento dell’Ai Act, il regolamento sull’intelligenza artificiale in vigore da agosto 2024, per vietare i sistemi che generano immagini sessuali non consensuali e materiale di abuso sui minori.
La stretta, definita da Consiglio Ue e Parlamento europeo nel pacchetto “Omnibus VII”, arriva dopo casi come quello delle foto deepfake che hanno coinvolto la presidente del Consiglio Giorgia Meloni.
L’accordo, che dovrà essere formalmente adottato da entrambe le istituzioni, introduce anche più tempo per l’adeguamento dei sistemi ad alto rischio e anticipa l’obbligo di watermarking sui contenuti generati dall’Ia. L’obiettivo è arginare un uso distorto delle nuove tecnologie senza bloccare innovazione e competitività industriale in Europa.
In sintesi:
- Vietati in tutta l’Ue i sistemi di Ia che creano deepfake sessuali non consensuali.
- Nuove regole stringenti anche contro il materiale di abuso sessuale su minori generato artificialmente.
- Scadenze rinviate per l’adeguamento dei sistemi di Ia ad alto rischio.
- Watermark obbligatorio per i contenuti generati dall’Ia dal 2 dicembre 2026.
Cosa cambia davvero con il nuovo pacchetto di norme europee
L’Ai Act, approvato a maggio 2024 dopo anni di negoziati, aveva già introdotto divieti assoluti come il riconoscimento biometrico di massa in tempo reale e i sistemi di controllo sociale.
Non copriva però in modo esplicito i deepfake a sfondo sessuale, fenomeno esploso di recente anche in Italia, dove da ottobre 2023 produzione e diffusione di tali immagini sono già reato.
Con l’intesa su Omnibus VII l’Ue colma questa lacuna. Viene introdotto un articolo ad hoc che proibisce: immissione sul mercato di sistemi progettati per creare nudità non consensuali; commercializzazione di sistemi privi di “misure di sicurezza ragionevoli” per impedirne tali usi; impiego deliberato da parte dei cosiddetti deployer per generare immagini, video o audio sessuali senza consenso.
Lo stesso schema si applica al materiale di abuso sessuale su minori generato artificialmente. Come ha sottolineato il relatore liberale irlandese Michael McNamara, l’Ue si dota di strumenti per intervenire quando i fornitori non proteggono diritti fondamentali e dignità umana.
Implicazioni future per utenti, imprese e regolatori europei
Le aziende avranno tempo fino al 2 dicembre 2026 per adeguare i sistemi ai divieti sui deepfake sessuali, con sanzioni fino a 35 milioni di euro o al 7% del fatturato globale.
Per i sistemi di Ia ad alto rischio, software “puro” e Ia integrata in dispositivi fisici, le scadenze slittano rispettivamente a dicembre 2027 e agosto 2028, per consentire la definizione di standard tecnici e delle autorità nazionali competenti.
Parallelamente, l’obbligo di watermarking per foto, video e testi generati dall’Ia viene anticipato al 2 dicembre 2026 per migliorare tracciabilità e contrasto alla disinformazione.
Il pacchetto alleggerisce inoltre gli oneri burocratici per Pmi e “small mid-cap”, così da non penalizzare gli operatori più piccoli. Come ha ricordato l’eurodeputata verde olandese Kim van Sparrentak, la priorità resta che *“l’intelligenza artificiale sia sicura e non costituisca un pericolo per i diritti fondamentali”*.
FAQ
Cosa prevede il divieto Ue sui deepfake sessuali non consensuali?
Il divieto proibisce sistemi Ia progettati per creare immagini, video o audio sessuali senza consenso, compresi i “nudifier”, e punisce sia produttori sia utilizzatori.
Da quando saranno vietate in Europa le app di nudificazione con Ia?
Il divieto scatterà dopo l’adozione formale dell’accordo e l’adeguamento entro il 2 dicembre 2026 per tutti gli operatori coinvolti.
Quali sono le nuove scadenze per i sistemi di Ia ad alto rischio?
I software ad alto rischio dovranno rispettare l’Ai Act da dicembre 2027, mentre quelli integrati in dispositivi fisici da agosto 2028.
Quando diventerà obbligatorio il watermark per i contenuti generati dall’Ia?
Diventerà obbligatorio dal 2 dicembre 2026, anticipando di due mesi la precedente scadenza prevista nella proposta originaria.
Quali sono le fonti utilizzate per questo approfondimento normativo?
Il contenuto deriva da elaborazione giornalistica su fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate.



