Adolescenti scelgono nudi generati con intelligenza artificiale: nuova allarmante deriva del sexting senza consenso

Adolescenti e intelligenza artificiale: la nuova frontiera delle immagini “nudificate”
Nel 2026 gli adolescenti statunitensi, nativi dell’intelligenza artificiale, stanno rivoluzionando anche la sfera dell’intimità digitale. Negli Stati Uniti, tra i 13 e i 17 anni, cresce l’uso di strumenti di AI generativa per creare immagini di sé o degli altri completamente nudi, partendo da foto reali o generate. Lo rivela uno studio della George Mason University di Fairfax, pubblicato su Plos One, che analizza come le app di “nudificazione” stiano sostituendo il tradizionale sexting e modificando dinamiche relazionali, consenso e percezione del corpo. La ricerca si svolge in ambiente digitale quotidiano – chat di classe, gruppi social, piattaforme di messaggistica – e pone interrogativi urgenti su privacy, sicurezza dei minori e responsabilità educative, perché le immagini possono circolare senza controllo e senza consenso, con conseguenze psicologiche e sociali ancora sottostimate.
In sintesi:
- Gli adolescenti usano l’intelligenza artificiale per creare immagini di nudo realistiche proprie e altrui.
- Oltre la metà del campione ha prodotto o ricevuto almeno una immagine “nudificata”.
- Più di un terzo è apparso in immagini manipolate e diffuse senza consenso.
- Il fenomeno sostituisce il sexting tradizionale e rimodella pudore, desiderio e relazioni.
Dallo studio di Fairfax alla rivoluzione silenziosa del sexting
Gli autori dello studio della George Mason University di Fairfax spiegano che i recenti progressi nell’intelligenza artificiale generativa hanno introdotto *«un cambio di paradigma nella generazione e manipolazione delle immagini»*.
Oggi sono disponibili numerosi strumenti che permettono di creare foto iperrealistiche a partire da semplici comandi testuali, rimuovendo, con un click, vestiti e biancheria da ritratti reali o avatar digitali. La pratica del sexting, un tempo basata sullo scambio consensuale di immagini intime prodotte direttamente dalla persona, viene così sostituita dalla “nudificazione” algoritmica.
Il sondaggio su 557 adolescenti tra i 13 e i 17 anni negli Stati Uniti mostra un fenomeno già di massa: il 55,3% dichiara di aver usato strumenti di nudificazione almeno una volta per creare immagini nude proprie o di altri; il 54,4% riferisce di aver ricevuto contenuti di questo tipo. Il dato più critico riguarda il 36,3% che si è ritrovato protagonista involontario di almeno un’immagine “nudificata”, circolata in chat di classe, gruppi o social, senza alcun consenso.
A questo si affianca un apparente paradosso: il 33,2% del campione afferma di aver autorizzato amici o conoscenti a diffondere immagini manipolate che lo ritraevano nudo. Ciò suggerisce una ridefinizione profonda dei confini tra pubblico e privato, tra gioco e violazione, in una generazione abituata a considerare il corpo come dato digitale modificabile e condivisibile, spesso senza piena percezione della permanenza online di questi contenuti.
Impatto emotivo e nuove responsabilità educative e regolatorie
La possibilità di “spogliare” virtualmente chiunque apre scenari di rischio che vanno oltre il bullismo tradizionale: umiliazione pubblica, ricatto, esclusione sociale e danni duraturi all’autostima. In molti casi, la promessa di divertimento e sperimentazione identitaria maschera dinamiche di controllo e pressione tra pari.
Queste tecnologie non “nudificano” solo i corpi, ma rischiano di assottigliare pudore, imbarazzo e perfino desiderio, trasformando l’intimità in oggetto di consumo visivo istantaneo. La sfida per genitori, scuole e istituzioni è duplice: alfabetizzare i ragazzi ai diritti digitali e al consenso, e chiedere regole più stringenti per piattaforme e sviluppatori che ospitano o distribuiscono strumenti di nudificazione.
Servono percorsi educativi che uniscano competenze tecniche, etica dell’immagine e supporto psicologico, per aiutare gli adolescenti a riconoscere abusi, tutelarsi e costruire una relazione più consapevole con l’AI e con il proprio corpo online.
FAQ
Cosa si intende per immagini “nudificate” con intelligenza artificiale?
Si intende la creazione, tramite strumenti di AI generativa, di immagini apparentemente nude di persone vestite, rimuovendo digitalmente gli indumenti e simulando parti intime inesistenti.
Quanti adolescenti usano app di nudificazione secondo lo studio citato?
Secondo lo studio su 557 adolescenti statunitensi, il 55,3% ha creato almeno un’immagine nudificata e il 54,4% ne ha ricevuta almeno una.
Quali sono i principali rischi per i minori coinvolti in immagini nudificate?
I rischi includono diffusione non consensuale, cyberbullismo, ricatti, danni alla reputazione, stress psicologico prolungato e perdita di controllo permanente sulla propria immagine digitale.
Come possono intervenire genitori e scuole su questo fenomeno?
Possono intervenire avviando dialoghi espliciti su consenso e privacy, attivando programmi di educazione digitale, segnalando abusi alle piattaforme e, se necessario, coinvolgendo autorità competenti e supporto psicologico.
Qual è la fonte delle informazioni utilizzate in questo articolo?
Le informazioni derivano da una elaborazione congiunta di contenuti di Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborati dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



