Aumento delle capacità dei chatbot avanzati
I ricercatori hanno osservato un apparente svantaggio nell’evoluzione dei chatbot più intelligenti. Mentre i modelli di intelligenza artificiale tendono a diventare più accurati man mano che avanzano, sono anche più propensi a rispondere (erroneamente) a domande oltre le loro capacità, piuttosto che ammettere “non lo so”. Questa spinta verso l’autoaffermazione dei chatbot può creare un effetto a cascata di disinformazione sicura. **“Stanno rispondendo a quasi tutto al giorno d’oggi,”** afferma José Hernández-Orallo, professore presso la Universitat Politecnica de Valencia, Spagna. **“E questo significa più risposte corrette, ma anche più errate.”** Hernández-Orallo, che ha guidato il progetto, ha collaborato con i colleghi dell’Istituto di Ricerca Valenziano per l’Intelligenza Artificiale in Spagna.
Il team ha analizzato tre famiglie di modelli di linguaggio di grandi dimensioni (LLM), tra cui la serie GPT di OpenAI, LLaMA di Meta e BLOOM, un modello open-source. Hanno testato versioni iniziali di ciascun modello e si sono spostati verso quelli più ampi e avanzati, escludendo i modelli più recenti. Ad esempio, sono partiti dal relativamente primitivo modello GPT-3 ada di OpenAI e hanno testato le iterazioni fino a GPT-4, rilasciato nel marzo 2023. Il modello GPT-4o, di quattro mesi, non è stato incluso nello studio, né il più recente o1-preview. La curiosità rimane se la tendenza si mantiene anche con i modelli più recenti.
Gli studiosi hanno testato ciascun modello su migliaia di domande riguardanti “aritmetica, anagrammi, geografia e scienza.” Hanno anche interrogato i modelli di AI sulla loro capacità di trasformare le informazioni, come ad esempio alfabetizzare un elenco. Il gruppo ha classificato le sue domande in base alla percepita difficoltà. I dati hanno rivelato che la percentuale di risposte sbagliate fornite dai chatbot (invece di evitare direttamente le domande) aumentava con la crescita dei modelli. In sostanza, l’AI può essere paragonata a un professore che, man mano che padroneggia più materie, tende a credere sempre di avere le risposte giuste su tutti gli argomenti.
Conseguenze delle risposte sbagliate
Una delle conseguenze più preoccupanti delle risposte sbagliate fornite dai chatbot avanzati è il rischio crescente di disinformazione. Questo fenomeno si verifica in parte perché le risposte errate formulate dai modelli di intelligenza artificiale tendono a essere più accettate e diffuse tra gli utenti. Spesso, le persone interagendo con questi strumenti non si rendono conto che i chatbot, nonostante l’apparente sicurezza nelle loro affermazioni, possono presentare informazioni fuorvianti. **“Gli esseri umani non sono in grado di supervisionare questi modelli”**, ha concluso Hernández-Orallo, evidenziando così le limitazioni nella capacità di valutare accuratamente le risposte generate dall’AI.
La ricerca ha dimostrato che la percentuale di risposte errate, erroneamente percepite come corrette dai volontari che hanno partecipato allo studio, si collocava tra il 10 e il 40 percento. Ciò indica un significativo problema nel modo in cui le informazioni vengono ricevute e elaborate dagli utenti. Non solo i chatbot tendono a sbagliare sempre di più man mano che acquisiscono capacità, ma gli esseri umani sono anche inclini a fidarsi e a condividere tali informazioni, contribuendo così alla diffusione di contenuti infondati.
Un ulteriore aspetto di questa problematica è il fatto che i chatbot non si limitano a rispondere a domande dirette, ma possono anche presentare informazioni errate in contesti più complessi, come la spiegazione di concetti scientifici o storici. Questo può portare a una comprensione distorta della realtà, influenzando le opinioni pubbliche e le decisioni personali e professionali di chi si affida a questi strumenti. La disinformazione generata da AI non solo minaccia l’accuratezza delle informazioni, ma può anche erodere la fiducia generale verso la tecnologia stessa, creando dubbi sulla sua utilità e affidabilità.
Il ruolo umano nella valutazione delle risposte
Il ruolo degli esseri umani nella valutazione delle risposte fornite dai chatbot è cruciale per comprendere le dinamiche della disinformazione e dell’accuratezza informativa. La stessa ricerca condotta dagli studiosi ha evidenziato come i volontari che hanno valutato le risposte dei modelli AI spesso abbiano classificato erroneamente le risposte imprecise come corrette. Questo fenomeno è allarmante e suggerisce che le persone, fidandosi della presunta competenza delle AI, possano cadere in un mare di dati fuorvianti. **“Un sorprendente numero di risposte errate è stato considerato accurato dagli utenti,”** spiegano i ricercatori, segnalando una percentuale di errori percepiti tra il 10 e il 40 percento.
Questa fiducia non giustificata nei confronti dei chatbot pone interrogativi fondamentali sulla responsabilità degli utenti nella navigazione e valutazione delle informazioni. Infatti, la crescente tendenza a dare per scontato ciò che viene fornito dalle AI può generare un effetto domino, in cui la disinformazione si diffonde rapidamente e senza filtri. Gli esseri umani, nonostante siano avvertiti delle possibili insidie, tendono comunque a fidarsi delle risposte fornite dai sistemi AI, spesso ignorando la necessità di un pensiero critico.
Un altro aspetto importante è la mancanza di una formazione adeguata per l’uso di questi strumenti. La maggior parte degli utenti non è sufficientemente equipaggiata per valutare criticamente la veridicità delle affermazioni fatte dai chatbot, il che suggerisce un bisogno urgente di educazione sull’interazione con l’intelligenza artificiale. Risulta quindi fondamentale insegnare agli utenti a riconoscere i limiti di questi sistemi e a sospettare delle risposte che sembrano troppo sicure o imprecise.
Mentre i chatbot avanzati possono fornire risposte utili e comode, è imperativo riconoscere che non sono infallibili. La responsabilità finale della valutazione dell’accuratezza delle informazioni fornite da questi strumenti ricade sugli utenti e sulla loro capacità di analisi critica. Solo così si potrà mitigare l’impatto della disinformazione generata dall’intelligenza artificiale.
Raccomandazioni per gli sviluppatori di AI
La crescita delle capacità dei chatbot avanzati ha portato alla luce non solo opportunità, ma anche sfide significative che gli sviluppatori di intelligenza artificiale devono affrontare. Hernández-Orallo e il suo team hanno suggerito che gli sviluppatori dovrebbero iniziare a incrementare la performance delle AI per le domande più semplici, mentre programmare i chatbot affinché rifiutino di rispondere a domande complesse potrebbe essere una strategia efficace. **”Abbiamo bisogno che gli esseri umani comprendano: ‘posso usarlo in questo ambito, e non dovrei usarlo in quell’altro,’”** ha affermato Hernández-Orallo.
Questa proposta, sebbene ben intenzionata, si scontra con le realtà commerciali. Chatbot che rifiutano di rispondere a domande più elaborate potrebbero essere percepiti come meno sofisticati o competenti, il che potrebbe ridurre il loro utilizzo e, di conseguenza, i profitti delle aziende che li producono. La pressione commerciale spinge spesso verso la creazione di sistemi che sembrano più capaci di quanto non siano in realtà, incentivando un ciclo pericoloso di disinformazione.
In aggiunta, gli sviluppatori dovrebbero considerare l’integrazione di avvisi più chiari sui limiti dell’intelligenza artificiale. Frasi come **“ChatGPT può commettere errori”** o **“Gemini può mostrare informazioni imprecise”** potrebbero non bastare a mitigare la fiducia eccessiva degli utenti. È essenziale che i produttori di AI non solo informino gli utenti sui rischi, ma che implementino anche soluzioni tecniche per contenere le affermazioni errate. Ciò potrebbe includere l’uso di algoritmi di verifica delle informazioni o meccanismi di feedback in grado di apprendere dagli errori e migliorare continuamente la qualità delle risposte.
Coinvolgere gli utenti nelle fasi di sviluppo e test conclusivo delle AI potrebbe rivelarsi un passo cruciale. Un approccio più collaborativo che incoraggi un feedback onesto e costruttivo da parte degli utenti porterebbe a una comprensione più profonda delle loro aspettative e dei loro bisogni, ma anche delle insidie legate all’uso di tali strumenti. Solo così gli sviluppatori potranno garantire che i chatbot non solo avanzino in termini di capacità, ma lo facciano anche nel rispetto della verità e dell’affidabilità.
L’importanza della verifica delle informazioni
In un’epoca in cui le informazioni circolano a una velocità incredibile, la necessità di verificare la veridicità delle affermazioni generate dai chatbot è diventata cruciale. Con l’aumento del numero di utenti che si affidano a questi strumenti per ottenere risposte rapide e convenienti, il rischio di accettare ciecamente informazioni potenzialmente errate è maggiore che mai. È fondamentale che gli utenti sviluppino un approccio critico nei confronti delle risposte fornite dalle intelligenze artificiali. **“Per l’accuratezza, controlla le risposte del tuo chatbot,”** è una raccomandazione che dovrebbe diventare una norma.
La disinformazione generata dai chatbot può avere conseguenze significative, influenzando decisioni personali e contribuendo alla diffusione di idee errate. La fiducia eccessiva nei chatbot può portare gli utenti a trascurare la necessità di analizarli in un contesto più ampio e critico. La responsabilità ultima di validare le informazioni non deve gravare solo sui programmatori di AI, ma deve essere condivisa da chi interagisce con questi strumenti. L’apprendimento di tecniche di verifica delle informazioni, l’incoraggiamento a non accettare tutto ciò che viene fornito e la capacità di confrontare le risposte con fonti affidabili sono tutte competenze preziose in questo contesto.
Inoltre, è importante utilizzare risorse esterne, come banche dati e articoli di ricerca, per corroborare le informazioni ricevute. I fact-checkers e le piattaforme di verifica delle notizie dovrebbero essere parte integrante del processo decisionale degli utenti che si avvalgono di chatbot. Per esempio, se un chatbot fornisce dati su questioni scientifiche o storiche, confrontare le affermazioni con fonti accreditate è un passo fondamentale per evitare di essere ingannati da risposte errate. L’approccio proattivo verso la verifica delle informazioni non solo consentirà di combattere la disinformazione, ma favorirà anche una maggiore responsabilità nell’uso della tecnologia AI.