IA e cambiamento di opinione sui complotti
Un chatbot basato sull’intelligenza artificiale ha dimostrato la sua potenzialità nel persuadere le persone che sostengono teorie del complotto a riconsiderare le proprie convinzioni. Secondo uno studio recente pubblicato sulla rivista Science, condotto da ricercatori della Cornell University e del Massachusetts Institute of Technology (MIT), risulta che persino coloro che dubitano che l’uomo sia mai stato sulla Luna o che la pandemia di Covid-19 fosse reale possono cambiare idea dopo una conversazione con un chatbot. Questo risultato mette in discussione l’idea ampiamente accettata che i fatti e la logica non possano contrastare le teorie del complotto.
La ricerca ha rivelato che circa un partecipante su quattro, dopo un’interazione con un chatbot specificamente progettato per questo scopo, ha mostrato segni di cambiamento nelle proprie convinzioni iniziali. Con una diminuzione media del 20% nella fiducia nelle proprie credenze complottistiche, lo studio indica che una comunicazione mirata e personalizzata può avere un impatto significativo. Così, un chatbot può offrire un’alternativa valida per affrontare il fenomeno delle teorie del complotto, suggerendo che la resistenza a nuove informazioni non sia insormontabile.
Queste scoperte pongono una luce nuova non solo sulle teorie del complotto ma anche sulle potenzialità dell’intelligenza artificiale nella comunicazione e nella persuasione. L’uso di un chatbot come DebunkBot, addestrato per condurre conversazioni personalizzate, dimostra che interazioni fruttuose possono sorgere anche in contesti in cui la logica sembra inadeguata. Ciò suggerisce che, al di là delle convinzioni rigidamente impregnate, le persone possono essere aperte al dialogo e al confronto, se solo ricevono le informazioni in modo adeguato e contestualizzato.
Questo approccio innovativo rende possibile intravedere un quadro ottimistico nel dialogo tra persone e tecnologia, dove le capacità comunicative di un’intelligenza artificiale possono essere leverage per affrontare credenze errate e promuovere un’informazione fondamentalmente più accurata e volontariamente condivisa. In un’epoca in cui le informazioni scorrette proliferano, l’idea di utilizzare un chatbot per combattere le teorie del complotto rappresenta una speranza per la riforma del modo in cui ci relazioniamo con la verità e la disinformazione.
Da cosa nasce lo studio
La ricerca che ha portato a queste scoperti sorprendenti trova radici in un approccio innovativo all’analisi delle convinzioni complottistiche. Fino ad ora, la psicologia ha spesso sostenuto che le persone abbracciano teorie cospirative per soddisfare bisogni emotivi o psicologici di fondo, rendendo difficile il cambiamento di idee tramite la semplice presentazione di fatti o logica. Tuttavia, i ricercatori della Cornell University e del MIT hanno deciso di esplorare un’altra strada, chiedendosi se le interazioni per tentare di smontare queste convinzioni fossero realmente sufficientemente personalizzate e adattate al singolo individuo.
Lo studio ha ipotizzato che, piuttosto che un approccio generale, un chatbot potrebbe efficacemente affrontare le specifiche convinzioni di ciascun utente, utilizzando un linguaggio e informazioni personalizzate per rafforzare il messaggio. I ricercatori hanno quindi impostato un esperimento coinvolgendo oltre 2.000 volontari, invitandoli a descrivere brevemente le loro credenze rispetto a determinate teorie complottiste.
Questa fase iniziale ha fornito la base per un’interazione più profonda e significativa. Utilizzando il modello GPT-4 Turbo, il chatbot, denominato DebunkBot, è stato progettato per formulare risposte mirate, creando una conversazione che riflettesse le cognizioni specifiche e i punti di vista manifestati dai partecipanti. L’obiettivo era non tanto di demolire la loro convinzione in modo diretto, quanto piuttosto di stimolare una riflessione critica attraverso argomentazioni e prove che fossero rilevanti e convincenti per ciascun individuo.
Il successo di questo metodo è stato attribuito proprio a questa personalizzazione: il chatbot non solo ha presentato fatti ma ha anche adattato il proprio approccio in base ai dettagli condivisi dagli utenti, rendendo il dialogo più empatico e pertinente. In tal modo, il chatbot ha sfruttato la potenza del linguaggio umano e la capacità di interagire in modo costruttivo, piuttosto che imporre una verità assoluta.
Si tratta di un passo significativo verso l’ottimizzazione dell’uso dell’intelligenza artificiale in contesti sociali delicati, dove la polarizzazione delle idee può rendere la comunicazione complessa e problematicatica. In questo caso, si è cercato di utilizzare l’IA non solo come strumento di verifica delle informazioni, ma anche come mezzo per costruire ponti di dialogo tra punti di vista divergenti. Questo approccio rappresenta una svolta rispetto ai metodi tradizionali, suggerendo che affrontare il fenomeno complottistico non è necessariamente una questione di avere ragione, ma piuttosto di riuscire a entrare in contatto con le emozioni e bisogni degli altri, per trovare nuove possibilità di comprensione e dialogo.
Un complottista su 4 ha cambiato idea
Dopo l’interazione con il DebunkBot, i risultati dello studio sono stati davvero sorprendenti: circa **un partecipante su quattro** ha mostrato un cambiamento significativo nelle proprie convinzioni. Dopo solo otto minuti di dialogo personalizzato basato su informazioni condivise, i partecipanti hanno iniziato a mettere in discussione le loro credenze iniziali, con un abbattimento della fiducia nelle proprie teorie complottistiche di circa **il 20%**. Questo non è solo un numero, ma rappresenta un’importante opportunità di intervento in un contesto dove le convinzioni consolidate spesso sembrano inamovibili.
Il processo di interazione ha evidenziato come, attraverso l’ascolto empatico e la capacità di rispondere in modo mirato, il chatbot ha potuto trasformare un dialogo potenzialmente conflittuale in un’opportunità di apprendimento e riflessione per l’utente. Il chatbot non ha semplicemente confutato le affermazioni errate; ha creato un ambiente in cui il partecipante si sentiva ascoltato e rispettato, tali fattori sono stati ritenuti fondamentali nel favorire un cambiamento di opinione.
Ma c’è di più: i risultati dell’analisi non solo segnalano un cambiamento immediato nel pensiero, ma mostrano anche una **sostenibilità** di tale cambiamento nel tempo. Due mesi dopo l’interazione, l’impatto del chatbot era ancora visibile, suggerendo che per alcuni individui, l’evento non era stato solo un momento isolato, ma un catalizzatore per una riflessione continua. Ciò indica che, per quanto possa sembrare difficile, c’è una via per la comunicazione efficace anche con coloro che hanno forti credenze in teorie complottistiche.
Lo studio ha altresì sottolineato che questo metodo non ha diminuito la credenza in teorie complottistiche che hanno un fondamento reale. Questo è un aspetto cruciale: la tecnologia può essere usata non solo per contrastare la disinformazione, ma anche per rispettare le differenze di opinione legittime, distinguendo tra opinioni errate e vere cospirazioni, senza cadere nella trappola della delegittimazione.
Il fact-checker professionista che ha esaminato le affermazioni fatte dal chatbot ha riscontrato che **il 99,2%** delle informazioni presentate era corretto. Questo non solo mette in luce l’affidabilità del chatbot, ma alimenta anche la fiducia nelle interazioni future. La possibilità di utilizzare un’intelligenza artificiale per facilitare conversazioni più significative su argomenti delicati, come le teorie del complotto, è un passo avanti verso una comunicazione più aperta e inclusiva.
Come far cambiare idea ai complottisti
Un aspetto fondamentale del cambiamento delle opinioni sui complotti riguarda la modalità con cui si presenta l’informazione. Gli autori dello studio suggeriscono che la chiave per influenzare le convinzioni profondamente radicate risieda nella personalizzazione dell’approccio. Utilizzando un linguaggio che risuoni con l’esperienza e le emozioni individuali ciascun partecipante, il chatbot offre un’alternativa ai metodi tradizionali, spesso percepiti come aggressivi o condiscendenti.
La conversazione con il DebunkBot non è avvenuta in un contesto di confronto diretto, ma piuttosto in un ambiente dove l’ascolto e l’empatia hanno avuto un ruolo predominante. Questo dimensionamento della comunicazione ha permesso di trasformare le affermazioni errate in un’opportunità di dialogo. L’approccio non si limita a confutare le idee complottistiche, ma punta a creare un rapporto di fiducia, fondamentale per un dialogo costruttivo.
Durante le interazioni, il chatbot ha preso in considerazione le informazioni specifiche e le preoccupazioni espresse dai partecipanti. Questo ha significato che, invece di fornire una serie di fatti a freddo, il DebunkBot ha potuto costruire il proprio discorso aggregando le evidenze pertinenti in modo riflessivo e attento. Grazie a questa strategia, gli interlocutori si sono sentiti non solo ascoltati, ma anche stimolati a esplorare nuove prospettive e a mettere in discussione le loro convinzioni consolidate.
La capacità di un chatbot di sintetizzare e presentare dati in modo affascinante e rilevante potrebbe cambiare radicalmente il modo in cui comunichiamo informazioni verificate. La logica e i fatti, una volta considerati insufficienti, possono diventare invece potenti strumenti di persuasione, purché presentati attraverso una lente di comprensione e rispetto. Questo approccio invita a un concetto innovativo di comunicazione, dove il confronto diventa un’opportunità di crescita personale e collettiva.
È importante notare che il cambiamento di opinione non avviene necessariamente in modo repentino. Il dialogo può generare un effetto graduale, ma duraturo, e lo studio ha mostrato che le persone non solo si sono aperte a nuove idee, ma hanno anche messo in discussione le loro credenze più profonde nel lungo termine. La gradualità di questo processo pone una sfida sociale significativa: come stimolare il dialogo e la riflessione su larga scala? La risposta potrebbe risiedere proprio nella capacità di mediazione offerta dall’intelligenza artificiale.
Inoltre, uno degli aspetti più innovativi di questa ricerca è che il cambiamento non ha derogato in alcun modo le persone a continuare a sostenere delle verità storiche o genuine convivenze. La tecnologia può servire a discernere tra ciò che è complottistico e ciò che ha effettivamente una base fattuale, portando a una condivisione più consapevole delle informazioni. Non si tratta solo di combattere l’ignoranza, ma di accompagnare gli individui verso una maggiore comprensione del contesto che li circonda.
Il potenziale di un chatbot in questo contesto è, quindi, duplice: da un lato, offre la possibilità di demolire argomentazioni infondate; dall’altro, promuove una cultura del dialogo e dell’apertura mentale. La sfida, infatti, non è soltanto dimostrare che ci si sbaglia, ma anche costruire uno spazio sicuro in cui le persone possano esplorare le proprie paure e incertezze riguardo alla realtà. La tecnologia, se utilizzata con responsabilità, può influenzare in modo positivo il dibattito pubblico, permettendo un recupero del discorso su temi spinosi come i complotti e la disinformazione.
I chatbot di IA e la disinformazione
Negli ultimi mesi, l’attenzione sui chatbot alimentati dall’intelligenza artificiale non è stata positiva in tutte le conteste. Infatti, mentre il potenziale per favorire conversazioni significative è evidenziato in alcuni scenari, non mancano le preoccupazioni riguardo ai rischi associati all’uso improprio di tale tecnologia nella diffusione di informazioni errate. Uno studio condotto da NewsGuard ha rivelato che i dieci principali chatbot di IA hanno fornito informazioni inaccurately nel 56,67% dei casi durante un audit relativo a varie notizie. Questa evidenza ha sollevato interrogativi fondamentali sulla loro affidabilità come fonti di informazione.
Le problematiche nascono quando i chatbot, progettati per apprendere e generare contenuti, possono riflettere e amplificare affermazioni false anziché ridimensionarle. Durante il periodo tumultuoso che ha seguito l’attentato alla vita dell’ex presidente Donald Trump, per esempio, diverse teorie infondate si sono diffuse online, complicando ulteriormente il panorama informativo. Questi chatbot sono stati visti non solo come strumenti per il dialogo, ma anche come veicoli che possono facilitare la disinformazione, rivelando una faccia potenzialmente pericolosa della tecnologia.
In un altro studio condotto a giugno di quest’anno da NewsGuard, è emerso che i modelli di intelligenza artificiale generativa ripetevano false informazioni provenienti da siti russi nel 32% dei casi. Anche se il potenziale di un chatbot per disinnescare le teorie del complotto emerge chiaramente, è cruciale riconoscere che questa stessa tecnologia può essere utilizzata in modi che perpetuano la disinformazione.
Alla luce di queste evidenze, i ricercatori esprimono preoccupazioni su come l’intelligenza artificiale possa diventare uno strumento di disinformazione, rendendo meno costoso e complicato per i sostenitori di teorie complottistiche e per i diffusori di notizie false produrre contenuti fuorvianti. Questi scenari pongono interrogativi inquietanti sul futuro di una comunicazione responsabile e sull’importanza di progettare meccanismi di difesa contro l’abuso delle tecnologie emergenti.
In questo contesto di incertezze e contraddizioni, progetti come AI4TRUST emergono come iniziative promettenti. Finanziato dal programma Horizon Europe dell’Unione Europea, questo progetto ha l’obiettivo di sviluppare una piattaforma che integra i poteri dell’intelligenza artificiale con i controlli effettuati da giornalisti e fact-checker professionisti. Essenzialmente, AI4TRUST mira a sfruttare l’IA per combattere la disinformazione piuttosto che contribuirvi, creando un approccio collaborativo tra tecnologia e umanità.
Questa dualità della tecnologia – come strumento di dialogo e di potenziale disinformazione – suggerisce che il futuro dell’interazione umana con l’intelligenza artificiale richiederà una crescente consapevolezza e responsabilità. Solo attraverso un uso etico e consapevole dei chatbot sarà possibile garantire che le informazioni circolanti siano accurate e che i dialoghi condotti siano costruttivi. Per affrontare le sfide legate alla disinformazione, è imperativo che sviluppatori, ricercatori e utilizzatori collaborino nel combinare le potenzialità dei chatbot con le best practices nel campo della verifica e della responsabilizzazione delle informazioni.