Radiografie deepfake: quando anche i medici non riescono a distinguerle da quelle vere
Le radiografie deepfake generate dall’intelligenza artificiale hanno raggiunto un livello di realismo tale da ingannare persino i radiologi più esperti. Questo è il risultato allarmante di uno studio pubblicato il 24 marzo 2026 sulla rivista Radiology, edita dalla Radiological Society of North America. E no, non si tratta di uno scenario futuristico: sta succedendo adesso, con implicazioni che toccano la sicurezza sanitaria, le frodi assicurative e l’integrità delle cartelle cliniche digitali.
Lo studio ha coinvolto 17 radiologi provenienti da 12 istituzioni distribuite in sei paesi diversi, con livelli di esperienza che vanno dai principianti fino a specialisti con oltre 40 anni di pratica alle spalle. Sono state analizzate 264 immagini radiografiche, divise equamente tra scansioni reali e immagini generate dall’IA. Quando ai radiologi non veniva detto che nel gruppo c’erano anche radiografie false, solo il 41% riusciva a individuare quelle create artificialmente. Una volta avvisati della presenza di immagini sintetiche, la percentuale di accuratezza saliva al 75%. Un miglioramento significativo, certo, ma comunque lontano dalla certezza.
Nemmeno l’intelligenza artificiale riesce a smascherare sé stessa
Il dato forse più inquietante riguarda le stesse IA multimodali messe alla prova. Quattro modelli linguistici avanzati, tra cui GPT 4o, GPT 5, Gemini 2.5 Pro e Llama 4 Maverick, hanno ottenuto percentuali di accuratezza comprese tra il 57% e l’85%. Persino ChatGPT 4o, lo stesso strumento usato per generare le radiografie deepfake, non è riuscito a identificarle tutte. Significa che la tecnologia sta correndo più veloce delle contromisure disponibili.
Un altro elemento interessante è che l’esperienza clinica non ha fatto la differenza. Lo studio non ha trovato alcuna correlazione tra gli anni di carriera di un radiologo e la capacità di riconoscere le immagini false. Solo i radiologi muscoloscheletrici hanno ottenuto risultati significativamente migliori rispetto alle altre sottospecialità.
Come riconoscere una radiografia falsa e quali sono i rischi concreti
Il team di ricerca, guidato dal dottor Mickael Tordjman della Icahn School of Medicine del Mount Sinai di New York, ha individuato alcuni indizi visivi ricorrenti nelle radiografie deepfake. Le ossa appaiono troppo lisce, le colonne vertebrali innaturalmente dritte, i polmoni eccessivamente simmetrici. Le fratture simulate risultano pulite in modo sospetto, spesso limitate a un solo lato dell’osso. In pratica, le immagini false sembrano “troppo perfette” per essere vere.
I rischi sono tutt’altro che teorici. Una frattura fabbricata e indistinguibile da una reale potrebbe essere usata in cause legali fraudolente. Un attacco informatico a una rete ospedaliera potrebbe iniettare immagini sintetiche nelle cartelle cliniche, manipolando diagnosi e seminando caos clinico su larga scala. Per questo i ricercatori raccomandano l’adozione urgente di filigrane digitali invisibili incorporate nelle immagini e firme crittografiche collegate al tecnico che esegue l’esame al momento dell’acquisizione.
Come ha sottolineato lo stesso Tordjman, probabilmente quella che emerge oggi è solo la punta dell’iceberg. Il passo successivo nell’evoluzione delle radiografie deepfake sarà la generazione di immagini tridimensionali sintetiche, come TAC e risonanze magnetiche. Per questo il gruppo di ricerca ha già reso disponibile un dataset dedicato, completo di quiz interattivi, pensato per formare i professionisti sanitari a riconoscere queste minacce prima che diventino ingestibili.


