OpenAI svela sorprendente svolta: GPT-5.2 cita Grokipedia come fonte chiave, rivoluzionando affidabilità e trasparenza dell’AI

Indice dei Contenuti:
Report reveals that OpenAI’s GPT-5.2 model cites Grokipedia
Fonti controverse nel nuovo modello di OpenAI
Il nuovo modello GPT-5.2 di OpenAI, presentato come soluzione “di frontiera” per il lavoro professionale, è finito sotto esame dopo un’inchiesta del quotidiano britannico The Guardian. L’analisi ha rilevato che il sistema, in alcune risposte su temi storici e geopolitici delicati, cita l’enciclopedia online Grokipedia, sviluppata da xAI. Le verifiche hanno riguardato contenuti legati all’ e alla Shoah, dove l’affidabilità delle fonti è considerata cruciale.
Secondo il report, l’IA avrebbe usato voci di Grokipedia per collegare il governo iraniano alla compagnia di telecomunicazioni MTN-Irancell. Un altro caso segnalato riguarda la figura dello storico britannico Richard Evans, noto per il suo ruolo di perito nel processo per diffamazione intentato dal negazionista dell’Olocausto David Irving. Qui il sistema avrebbe integrato nella risposta riferimenti derivati dall’enciclopedia di xAI.
La stessa analisi evidenzia però una certa incoerenza nell’uso della fonte: in altre richieste su argomenti polarizzanti, come la presunta faziosità dei media contro Donald Trump, il modello non avrebbe richiamato Grokipedia. Questo comportamento selettivo alimenta interrogativi sui criteri di reperimento e priorità delle fonti.
Grokipedia e i rischi di eco-chamber
Grokipedia è stata lanciata da xAI come enciclopedia generata dall’IA, presentata come alternativa alle piattaforme collaborative tradizionali. Poco dopo il debutto, ricercatori statunitensi hanno documentato la presenza di citazioni a forum neonazisti e a siti definiti “problematici” o “borderline”, evidenziando lacune nella selezione editoriale delle fonti. Tali criticità risultano particolarmente sensibili quando i contenuti vengono riutilizzati da altri sistemi di intelligenza artificiale.
Lo studio accademico ha segnalato che alcune voci attingono a database marginali o privi di revisione esperta, con rischi di amplificazione di bias politici, revisionismo storico e disinformazione strutturata. L’assenza di una gerarchia trasparente delle fonti rende difficile, per utenti e giornalisti, valutare il peso di ciascun riferimento. In un contesto dove gli LLM vengono usati per compiti professionali – dal fact-checking alla produzione di report – questo deficit di tracciabilità può tradursi in errori su larga scala.
Il fatto che un modello di punta utilizzi un’enciclopedia già contestata, anche solo in modo episodico, spinge gli esperti a chiedere standard più stringenti di audit sulle catene di approvvigionamento informativo delle IA generative.
Risposta di OpenAI e implicazioni regolatorie
Interpellata da The Guardian, OpenAI ha spiegato che GPT-5.2 consulta “un ampio spettro di fonti pubblicamente disponibili e punti di vista”, sottolineando l’esistenza di “filtri di sicurezza” per ridurre la probabilità di mostrare link associati a contenuti ad alto rischio. L’azienda non ha però chiarito quali criteri portino Grokipedia a comparire, talvolta, tra i risultati effettivamente utilizzati in risposta. La mancanza di trasparenza sui meccanismi di ranking alimenta richieste di maggiore disclosure tecnica.
Il modello, lanciato a dicembre e ottimizzato per compiti professionali come la generazione di fogli di calcolo o la gestione di task complessi, è promosso come strumento affidabile per uffici stampa, studi legali, consulenti e ricercatori. L’episodio solleva quindi dubbi sulla compatibilità tra ambizione “enterprise-grade” e dipendenza da fonti con reputazione controversa. I regolatori europei e statunitensi osservano con attenzione questi casi, in vista di norme più severe sulla tracciabilità delle fonti e sulla mitigazione dei bias.
Per gli operatori dell’informazione, il caso rappresenta un avvertimento: l’uso di LLM nella produzione di notizie e analisi richiede workflow editoriali in cui ogni affermazione venga corroborata da verifiche umane e da banche dati certificate, riducendo al minimo l’affidamento automatico su enciclopedie generate dall’IA.
FAQ
D: Perché desta preoccupazione il riferimento a Grokipedia?
R: Perché l’enciclopedia di xAI è già stata criticata per citare forum neonazisti e fonti giudicate inaffidabili da ricercatori indipendenti.
D: Quali argomenti delicati sono stati coinvolti?
R: Sono emersi casi su legami tra governo iraniano e MTN-Irancell e domande relative allo storico Richard Evans e alle cause per negazionismo della Shoah.
D: GPT-5.2 usa sempre Grokipedia come fonte?
R: No, il modello sembra citarla solo in alcuni contesti, mentre su altre questioni controverse – ad esempio riguardo a Donald Trump – non è stata rilevata la stessa dipendenza.
D: Cosa ha dichiarato OpenAI sull’uso delle fonti?
R: OpenAI afferma che il modello consulta una vasta gamma di risorse pubbliche, applicando filtri di sicurezza per evitare contenuti ad alto rischio.
D: Quali rischi evidenziano i ricercatori su Grokipedia?
R: Gli studiosi segnalano possibili bias politici, citazioni di siti estremisti e mancanza di revisione esperta, con conseguenze sulla qualità informativa.
D: Come impatta questo caso sull’utilizzo professionale dell’IA?
R: Le aziende sono invitate a integrare controlli editoriali umani e standard di fact-checking prima di affidarsi in modo critico ai contenuti generati.
D: Qual è la fonte giornalistica principale del caso?
R: La ricostruzione degli episodi e delle risposte di OpenAI si basa sull’inchiesta pubblicata dal quotidiano britannico The Guardian.
D: Quali misure possono adottare regolatori e media?
R: Possibili interventi includono obblighi di trasparenza sulle catene di fonti, audit indipendenti dei modelli e linee guida editoriali specifiche per l’uso di LLM.




