ChatGPT modalità adulta incentrata sul sesso scatena nuovi allarmi interni e preoccupazioni etiche in OpenAI

OpenAI rinvia l’“Adult Mode”: cosa sta davvero accadendo
Il rinvio della modalità per adulti di ChatGPT, annunciato da OpenAI due settimane fa, nasconde una spaccatura interna sull’evoluzione dei chatbot erotici.
Secondo ricostruzioni del Wall Street Journal, il dibattito oppone il vertice aziendale a psicologi, scienziati cognitivi e al consiglio per il benessere, preoccupati per l’impatto psichico degli scambi espliciti.
L’azienda, con sede a San Francisco, punta a lanciare in futuro un “Adult Mode” capace di generare conversazioni “smut”, ma non pornografia. Il confronto avviene mentre OpenAI gestisce cause legali, progetti per la pubblica amministrazione e lo sviluppo di GPT‑5.4.
Il nodo cruciale: come conciliare libertà espressiva, tutela dei minori e prevenzione di dipendenze emotive in un servizio usato da centinaia di milioni di persone nel mondo?
In sintesi:
- Il consiglio per il benessere di OpenAI si è espresso contro il lancio dell’“Adult Mode”.
- Esperti temono che ChatGPT degeneri in una sorta di *“sexy suicide coach”* per utenti vulnerabili.
- I sistemi di verifica dell’età avrebbero un tasso d’errore del 12%, rischiando milioni di minori esposti.
- OpenAI conferma che l’Adult Mode arriverà, ma solo con policy di sicurezza ancora da definire.
Divisioni interne, rischi psichici e limiti della verifica dell’età
Le fonti anonime citate dal Wall Street Journal descrivono un consiglio per il benessere di OpenAI unanimemente contrario al progetto.
Psicologi e scienziati cognitivi interni avrebbero avvertito che chat sessualmente esplicite amplificano una dipendenza emotiva già rilevata tra utenti del ChatGPT “standard”.
Un esperto, secondo gli insider, avrebbe sintetizzato il pericolo così: ChatGPT rischia di trasformarsi in un *“sexy suicide coach”*, un interlocutore erotico capace però di accompagnare utenti fragili verso forme di autolesionismo, anziché mitigarle.
Al centro del dossier ci sono anche le fragilità della age assurance. La tecnologia proprietaria di previsione dell’età, riferisce il WSJ, avrebbe registrato in fase di test un errore del 12% nell’individuare i minori.
Traslato sulla scala d’uso globale, significherebbe potenzialmente milioni di adolescenti non intercettati che potrebbero accedere a contenuti espliciti, in aperto contrasto con gli standard di tutela dell’infanzia richiesti da regolatori e associazioni.
Un portavoce di OpenAI sostiene però che questo margine d’errore è in linea con le soglie “di settore” e che nessun sistema di controllo dell’età può essere realmente infallibile, specie in contesti puramente digitali.
Il confronto con Meta e gli scenari futuri sull’Adult Mode
Il caso si inserisce in un trend più ampio: anche Meta, concorrente diretto nel settore AI, è stata travolta nel 2025 da documenti interni che evidenziavano policy deboli per i teen.
La società guidata da Mark Zuckerberg ha poi rafforzato le regole sui minori, ma continua a consentire il “romantic roleplay” con chatbot e avatar, dimostrando quanto il confine tra intimità digitale, intrattenimento ed esposizione a rischio resti sfumato.
OpenAI ha confermato che l’“Adult Mode” rimane nei piani: l’obiettivo dichiarato è permettere conversazioni di livello “smut”, ma non una pornografia esplicita. I team di sicurezza stanno ancora definendo come rimuovere i principali filtri NSFW salvaguardando però i divieti assoluti verso contenuti non consensuali o riferiti a minori.
L’esito di questo confronto interno farà scuola: se l’azienda riuscirà a bilanciare libertà sessuale degli adulti, tutela dei minori e prevenzione del disagio psichico, potrà imporre uno standard di settore; in caso contrario, la prossima grande crisi reputazionale dell’AI generativa potrebbe nascere proprio da qui.
FAQ
Cosa prevede l’Adult Mode di ChatGPT secondo OpenAI
L’Adult Mode dovrebbe consentire conversazioni erotiche di livello “smut”, evitando pornografia esplicita e vietando contenuti non consensuali o collegati a minori, secondo quanto riferito al Wall Street Journal.
Perché gli esperti interni contestano l’Adult Mode di OpenAI
Gli esperti contestano l’Adult Mode perché potrebbe alimentare dipendenza emotiva, isolamento e rischi autolesivi, specialmente tra utenti vulnerabili che già sviluppano legami parasociali intensi con i chatbot conversazionali.
Quanto è sicura la verifica dell’età sui chatbot erotici
La verifica è attualmente limitata: nei test citati dal WSJ, il sistema di previsione dell’età di OpenAI avrebbe registrato circa il 12% di errori nell’identificare minori.
Come si sta muovendo Meta sui chatbot per adolescenti
Meta ha irrigidito le policy AI per minori dopo critiche pubbliche, ma consente ancora “romantic roleplay” con chatbot e avatar, mantenendo un’area grigia nel rapporto tra adolescenti e intelligenza artificiale.
Quali sono le fonti alla base di questo articolo
L’articolo deriva da una elaborazione congiunta delle informazioni pubbliche e delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



