Il dottor Sina Bari, chirurgo e responsabile AI presso iMerit, si è ritrovato in una situazione surreale. Un paziente è entrato nel suo studio e, quando il dottore gli ha raccomandato un farmaco, il paziente ha tirato fuori una conversazione stampata avuta con ChatGPT.
La chat diceva che quel medicinale aveva il 45% di probabilità di causare un’embolia polmonare. Una statistica spaventosa, convincente. E completamente fuori contesto. Bari ha investigato. La statistica veniva da uno studio reale, ma riguardava l’impatto del farmaco in una sottocategoria specifica di persone affette da tubercolosi.
Il paziente non aveva la tubercolosi. Non rientrava in quella categoria. Ma ChatGPT aveva pescato quel numero da qualche database, l’aveva presentato con assoluta sicurezza, e il paziente si era convinto che il farmaco consigliato dal suo medico lo avrebbe ucciso. Questa è la sanità nell’era dell’AI… Ma il dottor Bari, nonostante tutto, è entusiasta di ChatGPT Salute.
ChatGPT Salute divide i medici: utile o pericoloso?
OpenAI ha annunciato ChatGPT Salute, una versione del chatbot dedicata specificamente alla salute, con la promessa di non usare i messaggi per l’addestramento dei modelli AI. Gli utenti potranno caricare cartelle cliniche, sincronizzare app come Apple Health, e ottenere guida personalizzata.
Itai Schwartz della società MIND fa notare un altro problema. Improvvisamente ci sono dati medici che passano da organizzazioni conformi alla normativa HIPAA a fornitori che non lo sono. HIPAA è la legge americana sulla privacy delle informazioni mediche. Ospedali, cliniche, assicurazioni devono rispettarla. OpenAI no, anche se garantisce protezioni simili.
Il punto è che quando si carica la propria cartella clinica su ChatGPT Salute, si stanno spostando informazioni sensibilissime da un sistema regolamentato a uno che opera secondo policy aziendali. E la differenza conta quando si parla di dati che includono diagnosi HIV, problemi psichiatrici, dipendenze, aborti, ecc. Ma secondo Schwartz, e molti altri esperti, ormai è troppo tardi per tornare indietro.
230 milioni di persone che già chiedono diagnosi all’AI
Ogni settimana, 230 milioni di persone consultano ChatGPT sulla propria salute. È gente normale che invece di googlare “mal di testa persistente” chiede a ChatGPT ho mal di testa da tre giorni, cosa potrebbe essere?
. E ChatGPT risponde, a volte con informazioni corrette, altre con allucinazioni, risposte inventate ma plausibili che sembrano vere. E secondo i test di Vectara, il modello GPT-5 di OpenAI è persino più incline alle allucinazioni rispetto ad alcuni modelli di Google o Anthropic.
Secondo i medici, il vero problema non è che l’AI sbaglia, è che i pazienti non hanno alternative migliori, almeno in America, dove per vedere un medico di base l’attesa è di tre-sei mesi. Il sistema sanitario americano è talmente intasato che l’alternativa a un chatbot imperfetto non è parlare con un dottore, è aspettare sperando che il problema non peggiori nel frattempo. In questo contesto, ecco che ChatGPT diventa l’unica opzione disponibile per gente disperata. Che è terribile, ma vero.
L’AI che aiuta i medici invece di sostituirli
Per molti, la via più sicura per introdurre l’AI, sia per i medici che per i pazienti, è in ambito burocratico. Le scartoffie amministrative occupano circa la metà del tempo di un medico di base. Automatizzare questo lavoro significherebbe avere più tempo per vedere più pazienti. Ridurre quelle liste d’attesa di sei mesi. Trasformare medici frustrati in medici che fanno effettivamente quello per cui hanno studiato.
A Stanford stanno sviluppando ChatEHR, un software integrato nel sistema delle cartelle cliniche elettroniche. Permette ai clinici di interagire con i dati dei pazienti in modo rapido invece di scartabellare ogni angolo della cartella.
Anthropic sta facendo qualcosa di simile con Claude per la Salute. L’obiettivo principale è automatizzare l’invio delle richieste di autorizzazione preventiva alle assicurazioni, compilare moduli e aggiornare le cartelle elettroniche. Ciò aiuterebbe a risparmiare 20-30 minuti per ogni caso, che moltiplicato per decine di casi al giorno, diventa un risparmio di tempo notevole. Ore che potrebbero essere spese a visitare pazienti invece che combattere con la burocrazia.
Il conflitto di interessi
L’obiettivo di un medico è aiutare il paziente, quello delle aziende tech no. OpenAI, Google, Anthropic sono aziende. Aziende enormi con valutazioni miliardarie e investitori che vogliono vedere un ritorno economico. La loro priorità non è la salute pubblica, è crescere e massimizzare i profitti.
Se l’AI sanitaria può essere venduta come servizio, se può raccogliere dati preziosi, se può creare dipendenza da piattaforme proprietarie, questi sono incentivi potenti. E non sempre allineati con l’interesse dei pazienti. Le aziende tech possono permettersi di fare errori, i medici no, perché la posta in gioco è la salute e la vita delle persone.