Deepfake nelle radiografie mettono a rischio diagnosi e sicurezza dei pazienti in corsia

Radiografie deepfake, studio internazionale svela un nuovo rischio per la sanità digitale
Nella diagnostica per immagini, un nuovo studio pubblicato il 24 marzo su Radiology dimostra che radiologi e grandi modelli di intelligenza artificiale non distinguono in modo affidabile le radiografie reali da quelle generate con deepfake.
La ricerca, guidata da Mickael Tordjman dell’Icahn School of Medicine at Mount Sinai di New York, ha coinvolto 17 radiologi di sei Paesi e quattro modelli multimodali.
Le prove sono state condotte su 264 immagini tra radiografie autentiche e sintetiche create con ChatGPT-4o e il modello open-source RoentGen della Stanford Medicine.
L’incapacità sistematica di riconoscere le immagini contraffatte configura una vulnerabilità critica per i sistemi informatici ospedalieri e per l’integrità della cartella clinica digitale, con potenziali impatti medico-legali e assicurativi di ampia portata.
In sintesi:
- Radiologi e IA faticano a distinguere radiografie reali da immagini deepfake generate da modelli avanzati.
- Accuratezza umana e automatica raramente supera l’80%, con ampia variabilità tra soggetti e sistemi.
- Esperienza clinica non protegge dal rischio: contano sottospecialità e pattern anatomici familiari.
- Proposte difensive: watermark invisibili, firme crittografiche e nuovi percorsi formativi dedicati.
Studio su 264 radiografie rivela vulnerabilità strutturale della diagnostica digitale
Il team di Mickael Tordjman ha arruolato 17 radiologi di 12 istituzioni in Stati Uniti, Francia, Germania, Turchia, Regno Unito ed Emirati Arabi Uniti, con esperienza clinica fino a 40 anni.
Il dataset comprendeva 264 radiografie, metà reali e metà sintetiche, organizzate in due set distinti.
Nel primo set erano presenti immagini di diverse regioni corporee, autentiche e generate con ChatGPT-4o; nel secondo solo radiografie del torace, reali o prodotte tramite RoentGen, modello diffusivo open-source sviluppato alla Stanford Medicine.
Quando i radiologi non erano avvisati della presenza di falsi, solo il 41% delle immagini deepfake veniva riconosciuto.
Informati del rischio, l’accuratezza media saliva al 75%, con variazioni dal 58% al 92% per le immagini generate da ChatGPT-4o e dal 62% al 78% per quelle di RoentGen.
In parallelo, quattro grandi modelli multimodali — GPT-4o, GPT-5, Gemini 2.5 Pro e Llama 4 Maverick — hanno ottenuto accuratezze tra il 57% e l’85% sul set misto e tra il 52% e l’89% sulle radiografie toraciche RoentGen, confermando la difficoltà condivisa uomo-macchina.
Lo studio dimostra inoltre che gli anni di esperienza non migliorano la capacità di individuare le immagini false: non emerge alcuna correlazione statisticamente significativa tra anzianità clinica e performance.
Mostrano invece risultati superiori i radiologi specializzati in imaging muscolo-scheletrico, suggerendo che la padronanza di pattern anatomici specifici offra un margine, seppur limitato, di vantaggio.
Dal punto di vista visivo, le immagini deepfake tendono a essere *“eccessivamente perfette”*, osserva Tordjman: ossa innaturalmente lisce, colonne troppo regolari, polmoni simmetrici oltre il plausibile, vascolarizzazioni uniformi e fratture con margini fin troppo netti e regolari, spesso confinati a un solo versante dell’osso.
Queste caratteristiche, pur riconoscibili a posteriori, non sono state sufficienti per garantire un riconoscimento affidabile in condizioni sperimentali simulate di pratica clinica quotidiana.
Cybersecurity sanitaria, formazione e watermark: cosa cambia dopo lo studio
Le implicazioni per la sicurezza informatica ospedaliera sono immediate: radiografie deepfake possono essere introdotte nei PACS e nelle reti cliniche per alterare diagnosi, gonfiare o negare risarcimenti assicurativi, o costituire prove manipolate in contenziosi medico-legali.
I ricercatori propongono l’introduzione sistematica di watermark digitali invisibili nelle immagini al momento dell’acquisizione, associati a firme crittografiche legate al tecnico di radiologia e al dispositivo, così da preservare la catena di custodia.
*“Siamo probabilmente solo alla punta dell’iceberg”*, avverte Tordjman, richiamando il rischio imminente di deepfake su TC e risonanza magnetica, dove la complessità tridimensionale amplifica l’impatto clinico ed evidenziale.
Per preparare la comunità, il gruppo ha già pubblicato un dataset curato di immagini deepfake con quiz interattivi destinati alla formazione dei radiologi, primo passo verso linee guida specialistiche e standard tecnici condivisi tra società scientifiche, autorità regolatorie e produttori di tecnologie sanitarie.
FAQ
Cosa sono le radiografie deepfake e perché preoccupano gli ospedali?
Le radiografie deepfake sono immagini diagnostiche sintetiche ma realistiche. Possono falsare diagnosi, cartelle cliniche e prove medico-legali, esponendo ospedali, assicurazioni e pazienti a contenziosi e rischi di sicurezza.
Quanto sono efficaci i radiologi nel riconoscere una radiografia deepfake?
Lo studio mostra che, senza preavviso, i radiologi identificano correttamente solo il 41% delle immagini deepfake; se avvisati del rischio, l’accuratezza media sale al 75%, ma resta altamente variabile.
I grandi modelli di intelligenza artificiale riconoscono meglio le immagini false?
No, le prestazioni restano limitate: l’accuratezza dei modelli multimodali oscilla tra il 52% e l’89% a seconda del dataset, senza garantire un filtraggio affidabile delle radiografie deepfake.
Quali contromisure tecniche vengono raccomandate contro le radiografie deepfake?
Vengono raccomandati watermark digitali invisibili inseriti all’acquisizione, firme crittografiche legate a operatore e macchinario, e sistemi di verifica della catena di custodia integrati nei PACS ospedalieri.
Da quali fonti è stata ricostruita questa analisi sulle radiografie deepfake?
L’analisi deriva da una elaborazione congiunta delle informazioni diffuse da Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



