Hallucinations dell’IA: Scopri come e perché l’intelligenza artificiale può fallire nel suo operato.
Cosa sono le allucinazioni dell’AI?
Le allucinazioni dell’AI si manifestano quando uno strumento di intelligenza artificiale generativa fornisce risposte a domande con affermazioni che risultano essere fattualmente errate, irrilevanti o completamente inventate. Ad esempio, un caso emblematico è quello in cui il chatbot Bard di Google ha erroneamente affermato che il Telescopio Spaziale James Webb aveva catturato le prime immagini di un pianeta al di fuori del nostro sistema solare. Tali errori possono avere anche conseguenze legali: due avvocati di New York sono stati sanzionati da un giudice per aver citato sei casi fittizi nei loro documenti redatti con l’assistenza di ChatGPT.
“Anche i modelli più avanzati allucinano circa il 2,5% delle volte”, afferma Duncan Curtis, SVP di GenAI e AI Product presso Sama. “Si tratta di un problema così significativo che un punto di forza del recente aggiornamento di Claude di Anthropic era che i suoi modelli ora erano due volte più propensi a fornire risposte corrette.” Curtis precisa che, sebbene il 2,5% sembri un rischio contenuto, le cifre possono rapidamente accumularsi per strumenti di intelligenza artificiale popolari come ChatGPT, che riceve fino a 10 milioni di domande al giorno. Se consideriamo un tasso di allucinazione del 2,5%, ciò si tradurrebbe in circa 250.000 allucinazioni al giorno o 1,75 milioni a settimana.
Questa non è necessariamente una frequenza costante: Curtis avverte che “se le allucinazioni dei modelli vengono reinforce come ‘corrette’, esse perpetueranno tali errori rendendo il sistema meno preciso col passare del tempo.”
Perché avvengono le allucinazioni dell’AI?
Le allucinazioni dell’intelligenza artificiale sono il risultato di meccanismi intrinseci alle modalità con cui i modelli generativi elaborano e generano contenuti. In termini semplici, l’intelligenza artificiale generativa opera predicendo la parola o la frase successiva basandosi su una vastità di dati preesistenti. Tuttavia, se il modello non comprende appieno le informazioni fornite, può produrre risposte apparentemente valide ma non fattualmente corrette.
Simona Vasytė, CEO di Perfection42, sottolinea che, nel caso dei modelli visivi, l’AI analizza l’ambiente e “indovina” il pixel più appropriato da inserire. Questa “indovinata” può, talvolta, portare a risultati errati, generando così allucinazioni. Curtis evidenzia che i modelli di linguaggio ampio (LLM) hanno difficoltà a generalizzare informazioni mai viste o a seguire un processo di auto-supervisione adeguato. È la mancanza di dati di addestramento sufficienti e di un processo di valutazione del modello inadeguato a rappresentare le principali cause di queste disfunzioni.
I modelli possono fare delle assunzioni errate se non hanno accesso a informazioni adeguate, come nel caso in cui debbano determinare i requisiti per l’approvazione di un mutuo. Se il modello non ha abbastanza dati, può erroneamente approvare un candidato non qualificato o negare un prestito a una persona idonea. Senza un’efficace valutazione e un monitoraggio continuo, le allucinazioni si presenteranno con maggiore frequenza durante l’uso reale, afferma Curtis.
Come ridurre e prevenire le allucinazioni nell’AI?
Eliminare completamente le allucinazioni nell’intelligenza artificiale è un obiettivo ambizioso, ma è possibile ridurle significativamente. La qualità dei dataset utilizzati per l’addestramento è fondamentale: l’utilizzo di dati di alta qualità e fattuali porta a un minor numero di errori. Investire risorse nel proprio modello di intelligenza artificiale può portare a soluzioni più affidabili e con meno allucinazioni.
Duncan Curtis suggerisce che, sebbene molti dei problemi originari possano sembrare risolvibili solo attraverso l’aumento della dimensione del dataset, è più pratico utilizzare un dataset rappresentativo, accuratamente annotato e etichettato. Combinato con rinforzi, guardrails e valutazioni continue delle prestazioni del modello, un dataset rappresentativo può aiutare a mitigare i rischi di allucinazione.
Un approccio aggiuntivo è l’adozione della generazione augmentata da recupero (RAG), che permette agli strumenti di intelligenza artificiale generativa di filtrare i dati rilevanti per generare una risposta. Questo metodo ha dimostrato di produrre output più accurati e affidabili, a condizione che i dati sottostanti siano adeguatamente verificati e approvati.
Un altro metodo sicuro per catturare e correggere le allucinazioni è quello del controllo da parte di esseri umani. Questo approccio, sebbene efficace, è più reattivo che proattivo, poiché gli errori vengono identificati dopo che il modello ha già fornito una risposta. Per prevenire o ridurre il fenomeno delle allucinazioni, è essenziale formulare l’input con la massima specificità possibile, indirizzando il modello verso risposte più precise e limitando così le possibili interpretazioni errate.