Remuzzi indica l’intelligenza artificiale come primo consulto prima del medico

Indice dei Contenuti:
“Chiedi a ChatGPT prima di andare dal medico”: la provocazione del professore Remuzzi sull’uso dell’IA
Quando l’algoritmo batte il camice bianco
L’analisi del professore Giuseppe Remuzzi, direttore dell’Istituto di Ricerche Farmacologiche Mario Negri di Milano, nasce da un confronto reale tra sistemi di intelligenza artificiale e clinici esperti su casi tra i più difficili della medicina moderna.
Lo studio richiamato dal docente fa riferimento al lavoro di ricerca di Microsoft AI sui casi pubblicati dal prestigioso New England Journal of Medicine, rubricati come “Case Records of the Massachusetts General Hospital”, un archivio ultracentenario di situazioni diagnostiche complesse e spesso atipiche.
Questi casi sono stati trasformati nel benchmark sperimentale Sequential Diagnosis Benchmark, in cui un orchestratore, denominato MAI Diagnostic Orchestrator, coordina più modelli linguistici avanzati, suddividendo il ragionamento clinico in tappe strutturate: ipotesi, richiesta di esami, revisione critica e valutazione di costi informativi.
Su 304 casi clinici altamente selezionati, l’architettura di IA ha individuato la diagnosi corretta in circa l’85% delle situazioni, contro un valore intorno al 20% dei medici coinvolti, tutti specialisti di alto profilo.
Il dato si inserisce nel quadro allarmante degli errori diagnostici: circa 134 milioni di eventi avversi all’anno nel mondo, con 2,6 milioni di decessi attribuibili a diagnosi errate, pari a 7.000 morti al giorno.
La mole crescente di conoscenze, in particolare sulle circa 7.000 malattie rare note – con 250 nuove entità descritte ogni anno – rende di fatto impossibile a un singolo professionista rimanere aggiornato senza strumenti digitali di supporto.
L’IA, al contrario, può incrociare in pochi istanti dati clinici, biologici e chimici, simulare percorsi diagnostici iterativi e suggerire esami mirati, con un potenziale impatto enorme proprio lì dove la medicina tradizionale fatica di più.
Alleata del paziente, non sostituta del medico
Nelle parole di Remuzzi la svolta non è la supremazia della macchina, ma la possibilità di costruire una nuova alleanza tra paziente, professionista e strumenti algoritmici.
Il professore insiste su un punto cruciale: quanto più il malato è informato, tanto più le cure risultano efficaci, come dimostrano diversi studi di esito clinico e aderenza terapeutica.
In questo schema, modelli generativi come ChatGPT possono diventare la prima interfaccia informativa per chi cerca di orientarsi tra sintomi, percorsi diagnostici e opzioni di cura, purché l’uso resti guidato e consapevole.
La differenza rispetto al “vecchio” motore di ricerca è sostanziale: le risposte non sono un elenco di link, ma un ragionamento contestualizzato che, se correttamente impostato, può aiutare a formulare domande più precise al medico, accelerare il sospetto diagnostico e ridurre consulti ripetuti e disordinati.
Nel campo delle malattie rare, dove la diagnosi arriva spesso dopo anni e passaggi tra numerosi specialisti, sistemi di supporto basati su grandi basi dati cliniche possono abbreviare in modo significativo il cosiddetto “odissea diagnostica”.
In parallelo, l’automazione amministrativa e documentale promette di alleggerire il carico burocratico, liberando tempo per la relazione umana, che rimane il cuore insostituibile dell’atto medico.
La sfida, sottolinea il direttore del Mario Negri, riguarda soprattutto la formazione: ripensare come insegnare medicina, includendo alfabetizzazione digitale, valutazione critica delle fonti e capacità di usare l’IA come strumento di supporto, non come stampella sostitutiva del giudizio clinico.
Il rischio nascosto del “deskilling”
Accanto alle opportunità emergono effetti collaterali inattesi: uno dei più discussi è la perdita progressiva di competenze, il cosiddetto “deskilling”, quando i professionisti delegano eccessivamente alla macchina.
Un lavoro pubblicato su The Lancet e commentato da Nature ha documentato questo fenomeno in endoscopia, analizzando l’impatto di sistemi automatici di riconoscimento dei polipi del colon in quattro centri polacchi.
Per tre mesi gli endoscopisti hanno lavorato senza IA, poi, nei tre mesi successivi, hanno alternato procedure con e senza supporto algoritmico: nelle colonscopie non assistite dopo il periodo con IA, l’adenoma detection rate è sceso dal 28,4% al 22,4%, una riduzione statisticamente significativa.
Gli autori non parlano di “dimenticanza” delle abilità, ma di adattamento cognitivo: l’operatore si abitua a seguire i segnali visivi del software, riducendo vigilanza, esplorazione autonoma e capacità di verifica critica, tipico bias da automazione descritto anche in aviazione e radiologia.
Persino un’esposizione relativamente breve è sufficiente a modificare la distribuzione dell’attenzione e a rendere il medico meno reattivo nel momento in cui la tecnologia viene rimossa o funziona in modo imperfetto.
Per evitare questo scivolamento, le raccomandazioni includono l’alternanza sistematica tra sessioni con e senza supporto digitale, programmi di training che mantengano esercizi tradizionali e metriche di performance individuali indipendenti dall’algoritmo.
In prospettiva, i sistemi clinici dovranno essere progettati per stimolare il controllo umano attivo – ad esempio richiedendo conferme argomentate – invece di favorire un’accettazione passiva delle proposte dell’IA, preservando così il nucleo di responsabilità professionale.
FAQ
D: L’IA ha davvero superato i medici nei casi clinici complessi?
R: Negli esperimenti citati da Giuseppe Remuzzi, l’orchestratore di modelli linguistici ha raggiunto circa l’85% di diagnosi corrette su casi del New England Journal of Medicine, contro circa il 20% dei clinici coinvolti.
D: Questo significa che i pazienti dovrebbero affidarsi solo a sistemi come ChatGPT?
R: No, gli strumenti conversazionali servono a informare e orientare, ma non sostituiscono visita fisica, esami e decisione del medico responsabile del caso.
D: Qual è il vantaggio principale per le malattie rare?
R: L’IA può incrociare rapidamente letteratura, casistiche e dati genetici, accorciando i tempi per arrivare a un sospetto diagnostico in patologie che oggi richiedono spesso anni per essere identificate.
D: Gli errori diagnostici sono davvero così frequenti?
R: Le stime internazionali indicano circa 134 milioni di eventi avversi all’anno legati a diagnosi sbagliate, con 2,6 milioni di decessi, un problema di sanità pubblica globale sottovalutato.
D: In che cosa l’IA differisce dalla semplice ricerca online?
R: I modelli generativi costruiscono risposte sintetiche e ragionate, mentre un motore di ricerca tradizionale offre solo link; resta però essenziale verificare le informazioni con un professionista.
D: Cos’è il “deskilling” nei medici che usano sistemi automatici?
R: È la perdita o attenuazione di abilità pratiche e di vigilanza dovuta alla delega eccessiva alla tecnologia, documentata, ad esempio, negli endoscopisti che utilizzano assistenza IA per i polipi.
D: Come si può limitare il bias da automazione?
R: Servono protocolli che alternino attività con e senza IA, formazione mirata sui limiti degli algoritmi e interfacce che obblighino il medico a valutare criticamente ogni proposta.
D: Qual è la fonte giornalistica originale di queste informazioni?
R: Le considerazioni riportate fanno riferimento a un intervento del professore Giuseppe Remuzzi ripreso dalla stampa italiana specializzata e a un’analisi su studio Lancet discussa in una retrospettiva di Nature.




