Molti di noi si rivolgono a Google, e sempre più spesso anche all’intelligenza artificiale, per avere un aiuto in caso di problemi di salute. Mentre Big G ritiene che l’AI offra risultati promettenti in questo settore, alcuni studi sono molto meno ottimisti. È stato dimostrato, ad esempio, che Microsoft Copilot dà consigli medici pericolosi nel 22% dei casi. Anche un nuovo studio condotto dall’Università di Oxford mette in guardia dai rischi di questa pratica.
I chatbot AI non sono ancora pronti per dare consigli medici
In un mondo in cui l’intelligenza artificiale sembra la soluzione a tutti i problemi, ci si potrebbe aspettare che i chatbot AI siano in grado di fornire anche consigli sulla salute. Dopotutto, con liste d’attesa infinite e costi sanitari alle stelle, l’idea di una diagnosi fai-da-te via chat è allettante. Tanto che, secondo un recente sondaggio, un americano su sei si affida già mensilmente a chatbot come ChatGPT per avere suggerimenti medici.
Ma i risultati sono davvero affidabili? Sembrerebbe proprio di no. I ricercatori dell’Università di Oxford hanno chiesto a 1.300 persone di utilizzare GPT-4o, oltre che Command R+ di Cohere e Llama 3 di Meta. L’obiettivo era analizzare e identificare un problema di salute, ma anche di ottenere consigli su quali azioni intraprendere: è il caso di prendere un appuntamento con un medico? È meglio andare al pronto soccorso?
Il risultato? Non solo i chatbot hanno reso i partecipanti meno propensi a riconoscere una condizione rilevante, ma li hanno anche indotti a sottovalutare la gravità dei problemi individuati. Il motivo? Spesso le persone omettevano dettagli cruciali nelle loro richieste o ricevevano risposte difficili da interpretare, mescolando consigli buoni e cattivi.
La salute è un campo ancora troppo complesso per l’intelligenza artificiale
Interpellato, Adam Mahdi, coautore dello studio, ha sottolineato che “gli attuali metodi di valutazione dei chatbot non riflettono la complessità delle interazioni con gli utenti umani“. I medici hanno quindi più che mai un ruolo cruciale nella diagnosi.
Questo studio si aggiunge alle numerose altre indagini condotte sul campo che hanno dimostrato l’importanza di non affidarsi all’AI quando si tratta della propria salute. Un altro studio statunitense, in particolare, ha dimostrato che, nel caso di malattie infantili, ChatGPT si sbagliava nell’83% dei casi. Del resto, persino le grandi aziende tech, da OpenAI a Apple, mettono in guardia dalle diagnosi basate sull’output dei loro chatbot. Nel frattempo, in caso di problemi, la cosa migliore resta consultare un vero medico.