Anthropic lancia Claude per la Salute per medici e pazienti

Anthropic lancia Claude per la Salute per medici e pazienti

Dopo ChatGPT Salute, Anthropic lancia Claude per la salute. Promette di liberare i medici dalle scartoffie, ma offrirà anche consulenze sanitarie.
Anthropic lancia Claude per la Salute per medici e pazienti
Dopo ChatGPT Salute, Anthropic lancia Claude per la salute. Promette di liberare i medici dalle scartoffie, ma offrirà anche consulenze sanitarie.

Anthropic ha appena annunciato Claude per la Salute. Casualmente, pochi giorni dopo che OpenAI ha presentato ChatGPT Salute. Pura coincidenza, ovviamente. Non è che le due aziende stiano giocando a chi arriva prima nel settore sanitario, no no.

Entrambe le soluzioni permettono di sincronizzare dati sanitari da telefoni, smartwatch e altre piattaforme. Entrambe assicurano di non usare quei dati per addestrare i modelli. Ma Anthropic sostiene che il suo prodotto sia più sofisticato di quello di OpenAI, che al momento sembra concentrarsi principalmente su un’esperienza di chat per pazienti.

Claude per la Salute, la controffensiva di Anthropic

La vera differenza tra Claude per la Salute e ChatGPT Salute sta in quello che Anthropic chiama “abilità agenziali“, cioè l’AI può fare cose invece di limitarsi a chiacchierare. Claude ha sviluppato dei “connettori” che gli danno accesso a database e piattaforme specifiche del settore sanitario, come il database di copertura dei Centers for Medicare and Medicaid Services (CMS), per capire cosa pagano le assicurazioni pubbliche americane; la classificazione ICD-10, il sistema internazionale con migliaia di codici per ogni possibile malattia e condizione medica esistente; il National Provider Identifier Standard, che identifica medici e strutture sanitarie e PubMed, il gigantesco database di letteratura medica scientifica.

Praticamente Claude ha le chiavi di accesso a tutti i database che fanno funzionare il sistema sanitario moderno. Lo scopo è automatizzare la burocrazia che sta soffocando i medici. Mike Krieger, CPO di Anthropic, ha dichiarato durante la presentazione che i medici riferiscono spesso di passare più tempo sulla documentazione e sulle scartoffie che a visitare effettivamente i pazienti.

Il sistema sanitario moderno, specialmente quello americano, è sommerso da montagne di burocrazia. Autorizzazioni preventive, moduli di copertura assicurativa, documenti che devono essere compilati in triplice copia digitale prima che un’assicurazione decida se pagherà o meno un farmaco che un medico ha prescritto. Non è medicina, è amministrazione pura.

Automatizzare questo processo ha senso. È un lavoro ripetitivo, basato su regole, esattamente il tipo di compito per cui l’AI è effettivamente utile. Claude può navigare i database assicurativi, controllare i codici ICD-10, compilare i moduli, inviare le richieste. In questo modo, i medici, invece di perdere tempo a compilare scartoffie, potrebbero fare il loro lavoro vero: curare pazienti. E fin qui, tutto bene.

Oltre la burocrazia medica, la consulenza

Ma Claude per la salute non si limiterà ad automatizzare la burocrazia medica. Si occuperà anche di vera consulenza medica. E qui le cose si fanno più complicate. I modelli linguistici sono notoriamente inclini alle allucinazioni, quel fenomeno per cui inventano informazioni con assoluta sicurezza.

Quando un chatbot dice che Napoleone è nato nel 1812 invece che nel 1769, è un errore, sì, ma non fatale. Quando un’AI medica suggerisce il dosaggio sbagliato di un farmaco o dice che quei sintomi non sono nulla di preoccupante quando invece si dovrebbe correre al pronto soccorso, le conseguenze cambiano drasticamente.

Anthropic e OpenAI ripetono entrambe lo stesso avvertimento: consultate sempre professionisti sanitari per una guida più affidabile e personalizzata. Che è l’equivalente di non provate a farlo a casa. Ma la realtà è che 230 milioni di persone, secondo OpenAI, parlano della propria salute con ChatGPT ogni settimana.

Questo numero è impressionante e terrificante nello stesso tempo. Dimostra quanto la gente cerchi disperatamente informazioni mediche accessibili. Ma significa anche che centinaia di milioni di persone si fidano di un sistema che può inventare risposte sbagliate con tono convincente.

L’automazione che serve

C’è una distinzione importante da fare. Usare Claude per accelerare le autorizzazioni preventive, per cercare letteratura scientifica rilevante, o compilare moduli assicurativi è ottimo. Questi sono compiti amministrativi dove l’AI può davvero aiutare senza rischi enormi. Se Claude sbaglia un codice di fatturazione, si corregge. Nessuno muore.

Usare Claude per dare consigli medici diretti ai pazienti è Molto più rischioso. Anche se l’AI ha accesso a PubMed e può citare studi scientifici, la medicina non è solo consultare database. È interpretare sintomi nel contesto della storia del paziente, considerare comorbidità, valutare rischi individuali, è saper dare un giudizio clinico sviluppato attraverso anni di esperienza.

Un LLM può imitare questo processo, ma non lo capisce davvero. E quando sbaglia, può sembrare altrettanto sicuro di quando ha ragione. Per un paziente senza formazione medica, distinguere un consiglio buono da un consiglio pericoloso è quasi impossibile.

L’allettante mercato della salute…

Quello della salute è un mercato enorme, ma gli errori costano vite. E mentre le aziende si affrettano a lanciare prodotti sanitari basati sull’AI, Anthropic letteralmente un giorno dopo OpenAI, viene da chiedersi se la velocità della competizione sia compatibile con la cautela necessaria quando si tratta di salute umana.

Anthropic e OpenAI parlano entrambe di partnership con strutture sanitarie, di conformità alle normative, di protezione dei dati. Tutto importante. Ma il vero test sarà quando questi sistemi incontreranno casi limite, pazienti con condizioni rare, sintomi ambigui, situazioni dove l’esperienza umana fa la differenza tra diagnosi corretta e errore fatale.

Per ora, Claude per la Salute è principalmente una scommessa, che l’AI sia abbastanza affidabile da gestire informazioni mediche, abbastanza sofisticata da saper gestire la burocrazia sanitaria, ma abbastanza cauta da non sostituirsi al giudizio clinico umano.

Nel frattempo, il consiglio resta lo stesso: usare pure l’AI per cercare informazioni e compilare moduli. Ma quando si tratta della propria salute, meglio parlare con esseri umani che hanno passato anni a studiare medicina. Non con modelli linguistici che hanno passato settimane a raschiare Internet.

Fonte: Anthropic
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
13 gen 2026
Link copiato negli appunti