L'AI in sala operatoria confonde gli organi e crea problemi

L'AI in sala operatoria confonde gli organi e crea problemi

I sistemi AI usati in chirurgia ed ecografie avrebbero causato gravi complicazioni. Le diagnosi sbagliate sollevano dubbi su test e controlli.
L'AI in sala operatoria confonde gli organi e crea problemi
I sistemi AI usati in chirurgia ed ecografie avrebbero causato gravi complicazioni. Le diagnosi sbagliate sollevano dubbi su test e controlli.

Immaginiamo di essere sul tavolo operatorio per una sinusite cronica, una procedura di routine che fanno migliaia di volte all’anno. Il chirurgo si affida a un sistema di navigazione assistito dall’intelligenza artificiale chiamato TruDi. Gli indica il percorso più sicuro attraverso le cavità nasali, o almeno, dovrebbe. Invece l’AI confonde la posizione degli strumenti, il medico segue le indicazioni sbagliate, perfora un’arteria e ci si ritrova con un ictus.

Quando l’AI sbaglia in sala operatoria:

È quello che sta succedendo in alcuni ospedali americani. I dispositivi medici dotati di intelligenza artificiale stanno causando complicazioni gravi ai pazienti. Le denunce si moltiplicano, i casi documentati aumentano. LA FDA, l’ente americano che dovrebbe controllare queste cose, continua a dire che non ci sono prove certe che la colpa sia dell’AI. Intanto la gente va in ospedale per una sinusite e ne esce con danni cerebrovascolari.

Il Sistema di Navigazione TruDi è in uso da circa tre anni. Utilizza l’intelligenza artificiale per calcolare il percorso più breve e sicuro tra due punti definiti dal chirurgo durante interventi alle cavità nasali. In teoria dovrebbe rendere le operazioni più precise, riducendo il rischio di errori umani. In pratica, in almeno due casi documentati, ha indicato la posizione sbagliata degli strumenti chirurgici all’interno del corpo del paziente.

Il risultato? Arterie perforate. Ictus. Stiamo parlando di errori che un essere umano esperto probabilmente non avrebbe commesso, perché un chirurgo con anni di esperienza sa riconoscere quando qualcosa non quadra. È il paradosso dell’automazione, più ci si affida alla tecnologia, più si smette di mettere in discussione i suoi suggerimenti. E quando la tecnologia sbaglia, sono cavoli amari.

Poi c’è Sonio, un’altra intelligenza artificiale usata nelle ecografie prenatali. Il suo compito è aiutare i medici a identificare le strutture del feto durante le ecografie. Semplice, no? Macché. In diverse denunce, il sistema è accusato di aver scambiato tra loro le parti del corpo del bambino, associando erroneamente le strutture anatomiche. Questo può portare a diagnosi sbagliate, allarmi ingiustificati o, peggio ancora, problemi che passano inosservati perché l’AI ha detto che va tutto bene e invece non è così.

La FDA approva senza testare su umani (cosa mai potrebbe andare storto?)

Ecco il vero scandalo, per far approvare un dispositivo medico dotato di intelligenza artificiale, spesso non serve testarlo su esseri umani. I produttori aggirano il problema presentandolo come un “aggiornamento” di un apparecchio già in circolazione. È una scappatoia normativa che permette di saltare la fase di sperimentazione clinica vera e propria.

La FDA ha, o meglio, aveva, team specializzati nell’intelligenza artificiale per valutare questi dispositivi. Ma molti di questi team sono stati decimati dai tagli al budget dell’amministrazione Trump. Meno personale significa meno controlli. Meno controlli significa più rischi che qualcosa passi inosservato.

Torniamo al punto di partenza: parliamo regolarmente dei progressi permessi dall’intelligenza artificiale in medicina. L’AI che individua tumori invisibili all’occhio umano, che analizza il sonno per diagnosticare malattie, che migliora l’accuratezza delle diagnosi. Ma la verità è che tra i paper accademici che dimostrano quanto è brava l’AI nei test controllati e l’applicazione pratica in ospedale con pazienti reali c’è un abisso.

Fonte: Reuters
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
10 feb 2026
Link copiato negli appunti