Raffaele Gaito spiega come cambiano le domande per usare l’intelligenza artificiale in modo davvero utile

Come usare l’intelligenza artificiale senza perdere spirito critico e umanità
Chi sta iniziando a usare l’IA ogni giorno – professionisti, studenti, over 60 – rischia di farsi guidare più dalle risposte che dalle domande. Raffaele Gaito, divulgatore e speaker, a Milano presenta il suo settimo libro, In che cosa posso esserti utile? Guida molto pratica e poco emotiva all’intelligenza artificiale (Mondadori), per spiegare come interrogare in modo consapevole strumenti come ChatGPT.
Nel volume l’autore indica perché oggi sia decisivo sviluppare un mindset critico, evitando sia il catastrofismo sia l’entusiasmo acritico verso una tecnologia che usiamo come psicologo, amico o oracolo.
L’obiettivo è mostrare come sfruttare l’IA per migliorare decisioni e competenze, riconoscendone al tempo stesso bias, limiti e rischi di dipendenza, così da non ripetere gli errori commessi con i social media.
In sintesi:
- Le domande contano più delle risposte in un mondo dominato dall’IA conversazionale.
- Raffaele Gaito propone un approccio razionale: né catastrofista né ingenuamente entusiasta.
- Usare l’IA come “avvocato del diavolo” potenzia giudizio critico e creatività.
- Riconoscere bias e parole pericolose è essenziale per evitare una dipendenza acritica.
Domande giuste, parole pericolose e ruolo scomodo della macchina
Nel nuovo libro, Raffaele Gaito parte da un presupposto: l’IA generativa è la prima tecnologia con cui “parliamo davvero”. Non interagiamo più solo con interfacce come Photoshop o Excel, ma con software che dialogano, rassicurano, elogiano.
Per questo, sostiene, oggi “tenere il cervello acceso” è vitale: lo spirito critico è ciò che più rischiamo di delegare alla macchina. Molti usano i chatbot come psicologo, confidente o oracolo, accettando risposte sempre gentili e confermative. Ma un feedback che ci dà solo ragione è inutile.
Gaito invita allora a ribaltare il ruolo dell’IA: chiederle di diventare “avvocato del diavolo”. Domande come: *“Elenca le criticità della mia idea”*, *“Quali obiezioni solleverebbe un cliente scettico?”* permettono di far emergere punti ciechi, connessioni nascoste, rischi sottovalutati.
Un capitolo è dedicato alle “parole pericolose”: termini come “ovviamente”, “chiaramente”, “sicuramente” che inseriamo nei prompt e che rivelano pregiudizi impliciti. Sommarsi ai bias dei modelli può generare una “tempesta perfetta” di distorsioni, apparentemente logiche ma profondamente fuorvianti.
Lezioni dai social media e futuro della consapevolezza digitale
In chiusura, Raffaele Gaito collega l’IA alla lezione, ancora aperta, dei social media. Da giovane, racconta, era “gasatissimo”: vedeva solo il lato luminoso delle piattaforme, trascurando limiti e conseguenze.
Quindici anni dopo, la promessa di connessione si è spesso tradotta in solitudine e polarizzazione. Per l’IA l’autore propone l’opposto: nessuna idealizzazione, nessun allarmismo, ma la regola ferrea di nominare sempre problemi, limiti tecnici, effetti collaterali.
*“L’errore più grande è pensare che sia una tecnologia neutra”*, scrive. I modelli sono costruiti, addestrati e alimentati con dati umani, quindi intrinsecamente carichi di bias. Riconoscerne la non oggettività è il primo passo per usarli bene, nelle aziende come nella vita quotidiana.
La parola chiave che resta è una: consapevolezza. Un’abilità che diventerà criterio distintivo tra chi verrà guidato dall’IA e chi saprà guidarla.
FAQ
Come usare ChatGPT senza perdere spirito critico?
È possibile usando ChatGPT come “avvocato del diavolo”: chiedi obiezioni, criticità, scenari contrari e alternative, evitando richieste puramente rassicuranti o confermative.
Quali parole evitare quando scrivo prompt all’intelligenza artificiale?
È consigliabile ridurre parole come “ovviamente”, “chiaramente”, “sicuramente”: veicolano pregiudizi impliciti che amplificano i bias già presenti nel modello.
L’intelligenza artificiale può sostituire un professionista umano?
È improbabile che lo faccia completamente: può automatizzare compiti ripetitivi, ma decisioni complesse, responsabilità e etica restano chiaramente in capo alle persone.
Come usare l’IA in modo utile nello studio e nel lavoro?
È efficace per brainstorming, schemi, revisioni critiche, simulazione di clienti o esaminatori, rendendo esplicite obiezioni, lacune e punti migliorabili dei propri progetti.
Qual è la fonte originale delle informazioni su questo articolo?
Le informazioni derivano dichiaratamente da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



