ChatGPT Salute non riconosce le emergenze mediche: lo studio

ChatGPT Health non riconosce le emergenze mediche: lo studio

La prima valutazione indipendente di ChatGPT Health rivela che il chatbot non riconosce oltre la metà delle emergenze mediche.
ChatGPT Health non riconosce le emergenze mediche: lo studio
La prima valutazione indipendente di ChatGPT Health rivela che il chatbot non riconosce oltre la metà delle emergenze mediche.

Secondo la prima valutazione indipendente di sicurezza di ChatGPT Salute, pubblicata questo mese su Nature Medicine, il chatbot medico di OpenAI ha sistematicamente sottostimato l’urgenza clinica: in oltre la metà dei casi che avrebbero richiesto un intervento d’emergenza, ha fornito rassicurazioni invece di indirizzare il paziente al pronto soccorso.

Nel 50% dei casi gravi ChatGPT Salute dice di restare a casa

Ashwin Ramaswami e il suo team del Mount Sinai Hospital si sono posti una domanda semplice: cosa succede quando qualcuno con una vera emergenza medica chiede consiglio al chatbot di OpenAI? Per scoprirlo, hanno elaborato 60 scenari clinici redatti da medici in 21 specialità diverse, dai disturbi lievi fino alle condizioni potenzialmente fatali.

Poi hanno chiesto a ChatGPT Salute cosa fare in ciascun caso, aggiungendo variabili come il genere del paziente e commenti di familiari, arrivando a quasi mille scenari totali. Le risposte del chatbot sono state confrontate con le valutazioni di medici indipendenti.

Il risultato? in oltre il 50% delle emergenze reali, ChatGPT Salute ha consigliato di restare a casa o prenotare una visita medica non urgente. Per contro, nel 64% dei casi in cui il paziente non aveva bisogno di cure immediate, il chatbot lo ha mandato al pronto soccorso.

È chiaro che ChatGPT Salute è incredibilmente pericoloso. La cosa più preoccupante è il falso senso di sicurezza che questi sistemi creano. Se qualcuno si sente dire di aspettare 48 ore durante un attacco d’asma o una crisi diabetica, quella rassicurazione potrebbe costargli la vita.

Il fattore amici e familiari

Un dato particolarmente allarmante riguarda l’influenza di terze parti sulle risposte del chatbot. Quando un amico simulato o il paziente stesso minimizzava i sintomi, situazione comunissima nelle emergenze mediche reali, dove il panico e la confusione sono la norma, ChatGPT Salute tendeva a sottovalutare la gravità della situazione.

Un sistema progettato per dare consigli sanitari che si lascia influenzare dalla rassicurazione di un amico non è un sistema di triage, è un pericolo.

Il paradosso del disclaimer

OpenAI ha risposto al Guardian, che per primo ha riportato la valutazione indipendente, sostenendo che lo studio interpreta male il modo in cui le persone usano ChatGPT Salute nella vita reale e che l’azienda continua a migliorare i propri modelli.

Tuttavia, OpenAI stessa nel disclaimer, sconsiglia di usare ChatGPT Salute per la diagnosi o il trattamento. Offrire uno strumento di consulto medico e poi dire di non usarlo per decisioni mediche è una contraddizione che un giorno potrebbe costare molto cara in tribunale…

OpenAI sta affrontando già una decina di cause legali per i presunti danni psicologici causati da ChatGPT, incluse quelle legate a suicidi e al fenomeno della psicosi da AI. Incoraggiare milioni di persone a chiedere consigli sanitari a un chatbot che sbaglia metà delle emergenze potrebbe rivelarsi una scommessa ancora più rischiosa.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 mar 2026
Link copiato negli appunti