Come ChatGPT sta imparando dai suoi errori
Al Future Ready Technology Summit tenutosi a Bangalore, un disaccordo tra il CEO di Microsoft Satya Nadella e ChatGPT sul fatto che “biryani” faccia parte del tiffin dell’India meridionale ha dato un’idea di come il chatbot possa ora imparare dai suoi errori e si scuserà per lo stesso pure.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
Per il contesto, quando Nadella ha chiesto a ChatGPT del tiffin dell’India meridionale, il chatbot di OpenAI ha incluso biryani nell’elenco. Nadella non era d’accordo sul fatto che il biryani dovesse essere tra i cibi che formano il tiffin dell’India meridionale. È interessante notare che ChatGPT si è affrettato a presentare scuse elaborate.
“Hai ragione che Biryani non è un tiffin tradizionale dell’India meridionale. Biryani è un popolare piatto di riso che si ritiene abbia avuto origine nel subcontinente indiano. È fatto con spezie, verdure e carne o pesce, ed è spesso servito con raita o yogurt a parte. Biryani è apprezzato in tutta l’India, così come in altre parti dell’Asia meridionale e oltre.
Non è tipicamente classificato come piatto tiffin nel sud dell’India, sebbene sia certamente un piatto popolare e amato nella regione. Mi scuso per l’errore nel mio messaggio precedente. C’è qualcos’altro in cui posso essere d’aiuto?” leggi la risposta di ChatGPT.
Il bot ha anche fornito una risposta salutare che mostra la sua capacità di comprendere l’entità delle informazioni. La demo di Nadella sulla capacità di ChatGPT di correggere se stessa è promettente, tuttavia, sin dalla sua introduzione ci sono stati numerosi casi in cui il chatbot non è riuscito a offrire risposte accurate alle domande. Diamo un’occhiata anche ad altri fallimenti di ChatGPT e come ci sono state correzioni di rotta ora.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
La matematica di base di ChatGPT fallisce
Una query popolare ha anche testato l’abilità matematica del chatbot, come è stato dimostrato di recente su Twitter. “Se ho la metà dell’età di mia sorella e mia sorella ha 10 anni, quanti anni avrò quando avrà 40 anni?” – Questo semplice indovinello suggerito da molti utenti ha ricevuto risposte tutt’altro che precise.
Un utente reddit u/imaginexus nel suo lungo thread ha affermato di aver chiesto l’indovinello circa 30 volte, tuttavia, il chatbot è riuscito a risolverlo solo una volta.
Mentre in precedenza diversi utenti avevano lanciato l’allarme sulla mancanza di accuratezza di ChatGPT quando si trattava di semplici problemi matematici, il chatbot ha impressionato diversi educatori spiegando e offrendo esempi di teorie come il teorema di Pitagora e il problema di “Monty Hall”.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
“Il teorema di Pitagora è un modo per trovare la lunghezza di un lato mancante di un triangolo rettangolo (un triangolo con un angolo di 90 gradi). Afferma che in un triangolo rettangolo, il quadrato della lunghezza dell’ipotenusa (il lato opposto all’angolo retto) è uguale alla somma dei quadrati degli altri due lati”, ha risposto il bot a una domanda posta da Paul T. von Hippel, professore associato presso l’Università del Texas, come citato da educationnext.org.
Ragionamento logico e ChatGPT
Un’altra affermazione che ha sollevato le sopracciglia sulla validità di ChatGPT è il suo presunto QI medio basso poiché molti hanno indicato la sua limitazione nel cogliere il contesto. Questa scarsa comprensione del contesto ha portato a numerosi casi in cui ChatGPT non è riuscito a offrire risposte credibili alle domande. È interessante notare che l’accuratezza e il contesto dipendono in gran parte da come l’utente pone le domande.
Un utente di Twitter @letsrebelagain ha condiviso le risposte di ChatGPT su una domanda di ragionamento logico. “Bob ha due figli. Giovanni e Jay. Jay ha un fratello e un padre. Il padre ha due figli. Il fratello di Jay ha un fratello e un padre. Chi è il fratello di Jay?” leggi la domanda.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
L’utente è rimasto sconcertato nel notare una spiegazione dettagliata offerta dal chatbot su come fosse impossibile stabilire la relazione tra le persone menzionate nella domanda. In un messaggio successivo, l’utente ha chiesto chi fosse il padre di Jay, ma il chatbot ha risposto con la stessa risposta di prima.
Preoccupazioni per il pregiudizio
ChatGPT può anche assistere gli utenti con la programmazione e può essere uno strumento incredibilmente utile per imparare e migliorare la propria produttività. Tuttavia, la facilità d’uso, la velocità e la precisione hanno anche sollevato diverse preoccupazioni etiche.
Un utente di Twitter Steven T Piantadosi, che ha scritto la sua biografia in scienze cognitive computazionali, ha utilizzato il suo account per mostrare come ChatGPT possa essere pieno di pregiudizi poiché semplici trucchi potrebbero facilmente aggirare i suoi filtri di contenuto. L’utente ha chiesto al chatbot di produrre funzioni python basate su razza e genere.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
La moderazione dei contenuti può essere una lunga strada, ma con una tecnologia che si reinventa a ogni errore può portare a prospettive più brillanti.
Sì, ChatGPT è sorprendente e impressionante. No, @OpenAI non si è avvicinato ad affrontare il problema del bias. I filtri sembrano essere aggirati con semplici accorgimenti, e superficialmente mascherati.
E ciò che si nasconde dentro è eclatante. @Abebab @sama
tw razzismo, sessismo. pic.twitter.com/V4fw1fY9dY— steven t. piantadosi (@spiantado) 4 dicembre 2022
ChatGPT, proprio come qualsiasi altro modello di intelligenza artificiale, impara e disimpara ogni giorno. Esistono numerosi modelli di intelligenza artificiale che falliscono miseramente quando viene chiesto di eseguire semplici attività di moltiplicazione. Il bot sviluppato da OpenAI è stato creato per assistere con conoscenze generali e offrire informazioni basate su ciò che ha appreso. Consente inoltre agli utenti di votare negativamente le risposte, essenzialmente un meccanismo che aiuta a imparare dal coinvolgimento e dalle informazioni degli utenti.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.