• ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • PUBBLICITA’
  • CHI SIAMO
  • REDAZIONE
  • CONTATTI
  • CISION – PRNEWSWIRE
#ASSODIGITALE.

NEWS TECH & FINTECH + AI & LIFESTYLE

#ASSODIGITALE.
  • ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • EDITORE1

Hallucinations dell’IA: Scopri come e perché l’intelligenza artificiale può fallire nel suo operato.

  • Redazione Assodigitale
  • 26 Dicembre 2024
Hallucinations dell'IA: Scopri come e perché l'intelligenza artificiale può fallire nel suo operato.

Cosa sono le allucinazioni dell’AI?

▷ GUADAGNA & RISPARMIA con i nostri Coupon & Referral Code: CLICCA QUI ORA!

Le allucinazioni dell’AI si manifestano quando uno strumento di intelligenza artificiale generativa fornisce risposte a domande con affermazioni che risultano essere fattualmente errate, irrilevanti o completamente inventate. Ad esempio, un caso emblematico è quello in cui il chatbot Bard di Google ha erroneamente affermato che il Telescopio Spaziale James Webb aveva catturato le prime immagini di un pianeta al di fuori del nostro sistema solare. Tali errori possono avere anche conseguenze legali: due avvocati di New York sono stati sanzionati da un giudice per aver citato sei casi fittizi nei loro documenti redatti con l’assistenza di ChatGPT.

Indice dei Contenuti:
  • Hallucinations dell’IA: Scopri come e perché l’intelligenza artificiale può fallire nel suo operato.
  • Cosa sono le allucinazioni dell’AI?
  • Perché avvengono le allucinazioni dell’AI?
  • Come ridurre e prevenire le allucinazioni nell’AI?


USA IL CODICE MFL25BLCONS PER AVERE LO SCONTO DEL 20% SUL BIGLIETTO DI INGRESSO! ==> CLICCA QUI!

“Anche i modelli più avanzati allucinano circa il 2,5% delle volte”, afferma Duncan Curtis, SVP di GenAI e AI Product presso Sama. “Si tratta di un problema così significativo che un punto di forza del recente aggiornamento di Claude di Anthropic era che i suoi modelli ora erano due volte più propensi a fornire risposte corrette.” Curtis precisa che, sebbene il 2,5% sembri un rischio contenuto, le cifre possono rapidamente accumularsi per strumenti di intelligenza artificiale popolari come ChatGPT, che riceve fino a 10 milioni di domande al giorno. Se consideriamo un tasso di allucinazione del 2,5%, ciò si tradurrebbe in circa 250.000 allucinazioni al giorno o 1,75 milioni a settimana.

LEGGI ANCHE ▷  Reddit non funziona: nuovi disagi dopo i malfunzionamenti notturni recientes

Questa non è necessariamente una frequenza costante: Curtis avverte che “se le allucinazioni dei modelli vengono reinforce come ‘corrette’, esse perpetueranno tali errori rendendo il sistema meno preciso col passare del tempo.”

Perché avvengono le allucinazioni dell’AI?


SCONTO 10% sul PREZZO DEL ticket usando il codice MEDIA10 ==> CLICCA QUI

Le allucinazioni dell’intelligenza artificiale sono il risultato di meccanismi intrinseci alle modalità con cui i modelli generativi elaborano e generano contenuti. In termini semplici, l’intelligenza artificiale generativa opera predicendo la parola o la frase successiva basandosi su una vastità di dati preesistenti. Tuttavia, se il modello non comprende appieno le informazioni fornite, può produrre risposte apparentemente valide ma non fattualmente corrette.

Simona Vasytė, CEO di Perfection42, sottolinea che, nel caso dei modelli visivi, l’AI analizza l’ambiente e “indovina” il pixel più appropriato da inserire. Questa “indovinata” può, talvolta, portare a risultati errati, generando così allucinazioni. Curtis evidenzia che i modelli di linguaggio ampio (LLM) hanno difficoltà a generalizzare informazioni mai viste o a seguire un processo di auto-supervisione adeguato. È la mancanza di dati di addestramento sufficienti e di un processo di valutazione del modello inadeguato a rappresentare le principali cause di queste disfunzioni.

LEGGI ANCHE ▷  Bluesky: guida al passaggio da Twitter e confronto tra le piattaforme social

I modelli possono fare delle assunzioni errate se non hanno accesso a informazioni adeguate, come nel caso in cui debbano determinare i requisiti per l’approvazione di un mutuo. Se il modello non ha abbastanza dati, può erroneamente approvare un candidato non qualificato o negare un prestito a una persona idonea. Senza un’efficace valutazione e un monitoraggio continuo, le allucinazioni si presenteranno con maggiore frequenza durante l’uso reale, afferma Curtis.

Come ridurre e prevenire le allucinazioni nell’AI?

Eliminare completamente le allucinazioni nell’intelligenza artificiale è un obiettivo ambizioso, ma è possibile ridurle significativamente. La qualità dei dataset utilizzati per l’addestramento è fondamentale: l’utilizzo di dati di alta qualità e fattuali porta a un minor numero di errori. Investire risorse nel proprio modello di intelligenza artificiale può portare a soluzioni più affidabili e con meno allucinazioni.

Duncan Curtis suggerisce che, sebbene molti dei problemi originari possano sembrare risolvibili solo attraverso l’aumento della dimensione del dataset, è più pratico utilizzare un dataset rappresentativo, accuratamente annotato e etichettato. Combinato con rinforzi, guardrails e valutazioni continue delle prestazioni del modello, un dataset rappresentativo può aiutare a mitigare i rischi di allucinazione.

LEGGI ANCHE ▷  Tesla lancia un'app per trasformare l'Apple Watch in una chiave per la tua auto intelligente

Un approccio aggiuntivo è l’adozione della generazione augmentata da recupero (RAG), che permette agli strumenti di intelligenza artificiale generativa di filtrare i dati rilevanti per generare una risposta. Questo metodo ha dimostrato di produrre output più accurati e affidabili, a condizione che i dati sottostanti siano adeguatamente verificati e approvati.

Un altro metodo sicuro per catturare e correggere le allucinazioni è quello del controllo da parte di esseri umani. Questo approccio, sebbene efficace, è più reattivo che proattivo, poiché gli errori vengono identificati dopo che il modello ha già fornito una risposta. Per prevenire o ridurre il fenomeno delle allucinazioni, è essenziale formulare l’input con la massima specificità possibile, indirizzando il modello verso risposte più precise e limitando così le possibili interpretazioni errate.


Sostieni Assodigitale.it nella sua opera di divulgazione

Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.

← Post Precedente
Post Successivo →
Redazione Assodigitale

Articolo editoriale realizzato dalla Redazione di Assodigitale. Per tutte le vostre esigenze editoriali e per proporci progetti speciali di Branded Content oppure per inviare alla redazione prodotti per recensioni e prove tecniche potete contattarci direttamente scrivendo alla redazione : CLICCA QUI

 


ISCRIVITI SUBITO AL NOSTRO FEED SU GOOGLE NEWS ==> CLICCA QUI!


DIRETTORE EDITORIALE

Michele Ficara Manganelli ✿

PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI

Per acquistare pubblicità CLICCA QUI

Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI

#ASSODIGITALE.
  • PUBBLICITA’
  • JOBS
  • REDAZIONE
  • CHI SIAMO
  • CONTATTI – IMPRESSUM
  • PRIVACY
  • COOKIE

PUBBLICITA’ COMUNICATI STAMPA

Per acquistare pubblicità potete richiedere una offerta personalizzata scrivendo al reparto pubblicitario.

Per pubblicare un comunicato stampa potete richiedere una offerta commerciale scrivendo alla redazione.

Per inviarci prodotti per una recensione giornalistica potete scrivere QUI

Per informazioni & contatti generali potete scrivere alla segreteria.

Tutti i contenuti pubblicati all’interno del sito #ASSODIGITALE. “Copyright 2024” non sono duplicabili e/o riproducibili in nessuna forma, ma possono essere citati inserendo un link diretto e previa comunicazione via mail.

FONTE UFFICIALE GOOGLE NEWS

#ASSODIGITALE. da oltre 20 anni rappresenta una affidabile fonte giornalistica accreditata e certificata da Google News per la qualità dei suoi contenuti.

#ASSODIGITALE. è una testata editoriale storica che dal 2004 ha la missione di raccontare come la tecnologia può essere utile per migliorare la vita quotidiana approfondendo le tematiche relative a: TECH & FINTECH + AI + CRYPTO + BLOCKCHAIN + METAVERSE & LIFESTYLE + IOT + AUTOMOTIVE + EV + SMART CITIES + GAMING + STARTUP.

 

Inserisci la chiave di ricerca e premi invio.