Chatbot AI e disinformazione: il rapido aumento delle informazioni false nel 2023

l’aumento delle informazioni false generate dai chatbot AI
Le informazioni false generate dai chatbot AI sono in aumento, con un peggioramento significativo registrato nell’ultimo anno secondo l’analisi condotta da NewsGuard. Questo fenomeno rappresenta una sfida cruciale nell’era digitale, poiché questi strumenti sono sempre più largamente impiegati per consultazioni rapide e decisionali. La crescita della diffusione di dati errati o manipolati tramite chatbot compromette la fiducia degli utenti e solleva interrogativi sulla sicurezza informativa. La complessità di questa problematica è accentuata dal fatto che le intelligenze artificiali adottano fonti non sempre verificate, contribuendo in maniera involontaria alla circolazione di fake news e informazioni non attendibili. Questo contesto evidenzia la necessità di un esame rigoroso e costante dei meccanismi con cui le AI selezionano e restituiscono i contenuti.
Indice dei Contenuti:
Il report evidenzia come uno dei modelli più avanzati, Mistral, mantenga un tasso di risposte false pari al 36,37%, una percentuale che, seppur stabile rispetto all’anno precedente, indica un livello ancora allarmante di affidabilità. Altri sistemi AI, invece, hanno visto peggiorare le proprie prestazioni proprio in relazione all’incremento dell’accesso alle informazioni in tempo reale, dimostrando una difficoltà intrinseca nella valutazione critica e nella differenziazione della qualità delle fonti. Questi dati sottolineano un passo indietro nella capacità dei chatbot di offrire risposte corrette, malgrado i progressi tecnologici e la sempre maggiore disponibilità di dati aggiornati.
L’incremento di errori e falsità non è semplicemente un problema tecnico, ma riflette un cambiamento nel paradigma con cui le AI interagiscono con il flusso informativo contemporaneo.
il ruolo della ricerca in tempo reale e la verifica delle fonti
La capacità dei chatbot di accedere a informazioni aggiornate in tempo reale è diventata una caratteristica fondamentale, ma ha introdotto una complessità significativa nella qualità delle risposte fornite. Dodici mesi fa, la maggior parte dei modelli AI limitava le proprie risposte ai dati acquisiti durante l’addestramento, evitando di affrontare temi recenti per cui non disponeva di informazioni sufficienti. Questa cautela, seppur frustrante per gli utenti, garantiva una maggiore affidabilità complessiva, riducendo il rischio di diffusione di contenuti errati o inventati.
Oggi, invece, l’integrazione di meccanismi di ricerca sul web in tempo reale ha ampliato notevolmente il repertorio delle informazioni a disposizione, ma al contempo ha introdotto un nuovo punto di vulnerabilità: l’assenza di filtri efficaci per la valutazione dell’attendibilità delle fonti. I chatbot tendono a raccogliere dati da siti e social media senza un’autentica capacità critica, spesso incorporando notizie provenienti da portali chiaramente orientati alla disinformazione o contenuti manipolativi. Questo fenomeno si traduce in un aumento sostanziale delle risposte false o fuorvianti, amplificando il problema della post-verità digitale.
Il report di NewsGuard sottolinea come questa situazione sia aggravata dall’assenza di sistemi robusti di fact-checking automatico inseriti nei modelli AI. La difficoltà a discriminare tra fonti affidabili e siti propagatori di fake news rappresenta una debolezza strutturale che limita la precisione delle risposte. Inoltre, l’uso di tecniche avanzate come i deepfake audio in articoli manipolativi complica ulteriormente la verifica, rendendo più insidiosa la capacità del chatbot di distinguere il vero dal falso.
La ricerca in tempo reale, pur indispensabile per mantenere aggiornati i chatbot, necessita di un miglioramento urgente nei processi di validazione, per evitare che l’accesso a una maggiore quantità di dati si traduca in un aumento esponenziale di informazioni errate diffuse come verità.
la strategia dei network di disinformazione contro l’intelligenza artificiale
L’incremento esponenziale delle fake news veicolate tramite chatbot AI non è un fenomeno casuale, ma il risultato di una strategia sofisticata orchestrata da network di disinformazione mirati a manipolare gli algoritmi di intelligenza artificiale. Questi gruppi, come accertato nel report di NewsGuard, utilizzano una molteplicità di siti web falsi che pubblicano contenuti falsificati e tendenziosi, con l’obiettivo esplicito di saturare il web con notizie di parte o completamenti inventate.
Un caso emblematico è rappresentato dalla rete denominata Pravda, un aggregatore di circa 150 siti pro-Cremlino che quotidianamente diffonde centinaia di notizie false, spesso corredate da elementi tecnologici manipolativi come i deepfake audio. Il loro modus operandi si è evoluto: non puntano più tanto a influenzare direttamente gli utenti umani attraverso i social media, quanto piuttosto ad alimentare l’enorme mole di dati su cui si basano gli algoritmi AI per generare risposte.
Questa strategia implica che i chatbot, sprovvisti di strumenti efficaci per distinguere fonti affidabili da fonti infondate, finiscono per replicare e amplificare queste false informazioni, assumendo involontariamente il ruolo di “spacciatori” di disinformazione su scala globale. L’attività aggressiva e sistematica di questi network porta, quindi, a un peggioramento complessivo della qualità informativa proposta dagli assistenti virtuali, compromettendo la credibilità di interi sistemi AI.
La sfida principale rimane nell’implementazione di meccanismi di difesa algoritmica che consentano di costruire una sorta di “immunità digitale” contro le manipolazioni orchestrate. Fino a quando gli sviluppatori delle intelligenze artificiali non riusciranno a integrare efficaci controlli di qualità e protocolli di verifica delle fonti, i chatbot continueranno a essere vulnerabili a queste sofisticate forme di manipolazione digitale.
Sostieni Assodigitale.it nella sua opera di divulgazione
Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.