AI Act rinvia le scadenze e introduce il bando per i deepfake sessuali
Indice dei Contenuti:
AI Act, rinvio scadenze e stop ai deepfake sessuali: cosa cambia davvero
Le istituzioni europee hanno concordato modifiche sostanziali all’AI Act, ridefinendo tempi e priorità della prima legge UE sull’intelligenza artificiale. L’intesa, raggiunta da Parlamento europeo e Consiglio UE sul pacchetto Digital Omnibus, posticipa gli obblighi per i sistemi di AI ad alto rischio e introduce per la prima volta un divieto esplicito sui deepfake sessuali non consensuali. Le nuove regole riguardano aziende tecnologiche, sviluppatori di AI, fornitori di servizi digitali e settori regolati come biometria, infrastrutture critiche, occupazione e giustizia, in tutta l’Unione europea. Le principali scadenze slittano tra il 2026 e il 2028, mentre il bando dei sistemi progettati per generare contenuti sessuali abusivi punta a contrastare la diffusione di materiale intimo e pedopornografico creato con algoritmi generativi. Le misure dovranno essere approvate formalmente entro il 2 agosto 2026.
In sintesi:
- Slittano al 2 dicembre 2027 gli obblighi per i sistemi di AI ad alto rischio.
- Rinviata al 2 agosto 2028 l’applicazione per prodotti fisici regolati da norme UE.
- Dal 2 dicembre 2026 watermark obbligatorio per tutti i contenuti generati da AI.
- Introdotto il divieto esplicito di sistemi per creare deepfake sessuali non consensuali.
Nuovo calendario AI Act e obbligo di watermark per i contenuti generati
Le regole per i sistemi di AI ad alto rischio, inizialmente previste per il 2 agosto 2026, slittano al 2 dicembre 2027. Il rinvio nasce dall’assenza, ad oggi, di linee guida tecniche complete che consentano alle imprese di adeguarsi in modo concreto e verificabile.
Sono coinvolti settori delicati: sistemi biometrici, gestione di infrastrutture critiche, istruzione e formazione, selezione del personale e occupazione, accesso a servizi essenziali, amministrazione della giustizia, controllo delle frontiere e immigrazione. In tutti questi ambiti l’AI sarà sottoposta a requisiti rafforzati di trasparenza, governance dei dati e gestione del rischio.
Per i sistemi di AI incorporati in prodotti fisici soggetti a legislazione settoriale UE (come giocattoli, dispositivi industriali, ascensori e altri beni già coperti da normative di sicurezza e sorveglianza del mercato) l’entrata in applicazione viene fissata al 2 agosto 2028, allineando il calendario con i cicli di certificazione dei prodotti.
Dal 2 dicembre 2026 scatterà invece l’obbligo di introdurre un watermark robusto e riconoscibile per tutti i contenuti generati da AI – audio, immagini, video e testi – anticipando la data rispetto alla proposta originaria della Commissione europea (2 febbraio 2027). L’obiettivo è permettere a utenti, media e autorità di distinguere più facilmente i contenuti sintetici da quelli reali.
Divieto dei deepfake sessuali e rischi di abuso della generazione artificiale
La novità più incisiva è l’introduzione di un divieto esplicito sui sistemi di AI destinati a produrre contenuti sessuali o intimi non consensuali e materiale di abuso sessuale su minori. Nel testo originario dell’AI Act una previsione così specifica non era presente, lasciando un vuoto normativo su uno degli usi più dannosi dell’AI generativa.
Il bando riguarda l’immissione sul mercato e l’uso di sistemi progettati per creare immagini, video o audio di deepfake sessuali, nonché la vendita di strumenti privi di barriere tecniche efficaci che ne impediscano la generazione abusiva. In pratica, sviluppatori e fornitori dovranno integrare meccanismi di prevenzione, rilevamento e blocco automatico di questo tipo di contenuti.
Il divieto si estende anche agli utilizzatori che impiegano intenzionalmente queste tecnologie per produrre materiale intimo falsificato, sia contro adulti sia contro minori. Le imprese avranno tempo fino al 2 dicembre 2026 per adottare le contromisure tecniche e organizzative necessarie, incluse procedure di segnalazione rapida e collaborazione con le autorità competenti.
L’accordo tra Parlamento europeo e Consiglio è ancora provvisorio e dovrà essere confermato entro il 2 agosto 2026. In assenza di approvazione formale entro tale data, le scadenze previste dal testo originario dell’AI Act tornerebbero automaticamente valide, con entrata in vigore più rapida per gli obblighi sui sistemi ad alto rischio. Questa clausola di salvaguardia evita vuoti regolatori in una fase di evoluzione rapidissima del mercato dell’AI.
Implicazioni future per imprese, utenti e governance dell’intelligenza artificiale
Il nuovo compromesso sull’AI Act segnala una strategia europea più graduale ma più mirata: da un lato concede alle imprese tempo aggiuntivo per implementare sistemi di conformità solidi, dall’altro interviene con decisione sugli abusi più gravi, come i deepfake sessuali e la manipolazione dell’identità digitale.
Per gli sviluppatori di modelli generativi, watermark obbligatori e blocchi sui contenuti sessuali non consensuali diventeranno elementi centrali di progettazione, con impatti diretti su dataset, filtri e architettura delle piattaforme. Per i cittadini, le nuove norme potrebbero ridurre i rischi di estorsione, revenge porn sintetico e disinformazione visiva, rafforzando strumenti di tutela della reputazione online.
Nei prossimi mesi il confronto tecnico su standard di watermarking, controlli ex ante e responsabilità legale degli operatori sarà decisivo per trasformare il quadro normativo in pratiche effettive, verificabili e interoperabili a livello europeo e internazionale.
FAQ
Quando entreranno in vigore le nuove regole per l’AI ad alto rischio?
Le nuove regole per i sistemi di AI ad alto rischio sono previste dal 2 dicembre 2027, salvo mancata approvazione formale dell’accordo entro agosto 2026.
Da quando il watermark sarà obbligatorio sui contenuti generati da AI?
Il watermark diventerà obbligatorio dal 2 dicembre 2026 per audio, immagini, video e testi creati tramite intelligenza artificiale, secondo il pacchetto Digital Omnibus.
Cosa prevede il divieto sui deepfake sessuali nell’AI Act?
Il divieto vieta sistemi di AI progettati per generare contenuti sessuali non consensuali e materiale di abuso su minori, includendo immagini, video e audio sintetici.
Quali settori saranno maggiormente impattati dalle regole sull’AI ad alto rischio?
Saranno più esposti biometria, infrastrutture critiche, istruzione, occupazione, accesso a servizi essenziali, giustizia e controllo delle frontiere, con obblighi stringenti di conformità.
Da quali fonti è stata ricostruita l’evoluzione dell’AI Act europeo?
L’analisi deriva da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.



