A maggio 2024, Google ha lanciato le AI Overview. L’idea era semplice, invece di cliccare su link e leggere articoli, l’intelligenza artificiale riassume tutto direttamente nella pagina di ricerca. Comodo e veloce, almeno in teoria. Peccato che l’AI si sia rivelata una bugiarda seriale con una creatività preoccupante.
Mangiare sassi per assumere minerali. Mettere colla sulla pizza per non far sciogliere la mozzarella. Suggerimenti talmente assurdi che sembravano scherzi, ma erano completamente seri secondo l’algoritmo. Google ha passato mesi a correggere le allucinazioni più evidenti, quelle che diventavano meme su X e facevano ridere tutti. Ma c’erano allucinazioni meno divertenti. Quelle che riguardavano la salute. E a quelle nessuno rideva.
Inchiesta Guardian, le AI Overview di Google sbagliano su cancro e salute mentale
Ora un’indagine del Guardian ha scoperchiato il vaso di Pandora: le AI Overview stanno dando consigli medici pericolosi, del tipo che potrebbero portare persone malate a prendere decisioni sbagliate, ignorare sintomi gravi, evitare cure necessarie.
Il Guardian ha documentato casi specifici dove le AI Overview ha fornito informazioni mediche completamente errate, che contraddicono apertamente le linee guida mediche consolidate.
Ad esempio, il cancro al pancreas, è una delle forme più aggressive e letali. I pazienti hanno bisogno di calorie e grassi per mantenere il peso corporeo e combattere la malattia. I medici raccomandano esplicitamente una dieta ricca di grassi. Le AI Overview? Consigliano di evitare cibi grassi. Esattamente l’opposto. Seguire quel consiglio significa perdere peso, indebolirsi, peggiorare la prognosi. Potenzialmente accelerare la morte.
A proposito dei tumori femminili, l’AI ha riportato informazioni completamente sbagliate sui test diagnostici. Dati obsoleti, procedure non più utilizzate, criteri di screening errati. Una donna che legge quei consigli potrebbe pensare che i suoi sintomi non richiedano attenzione medica. Potrebbe rimandare controlli. Potrebbe ignorare segnali di allarme. E quando finalmente va dal medico, il cancro è più avanzato, meno curabile.
Idem per la salute mentale. Una persona con disturbo alimentare che cerca aiuto online e trova un’AI che minimizza il problema o suggerisce strategie sbagliate potrebbe convincersi che non ha bisogno della terapia professionale. Una persona in fase psicotica che riceve consigli fuorvianti potrebbe evitare di cercare aiuto fino a quando la situazione non diventa critica.
Sono consigli che, se seguiti, possono causare danni reali, permanenti, a volte irreversibili.
Le persone si fidano (troppo) dell’AI
Il problema non è solo che le AI Overview danno consigli sbagliati. È che la gente ci crede. Un sondaggio dell’Università della Pennsylvania dell’aprile 2025 ha rivelato che quasi l’80% degli adulti cerca risposte ai propri sintomi online. Non è di certo un fenomeno nuovo, questo comportamento esiste da quando esiste Google. Ma il dato preoccupante è un altro: due terzi delle persone ritengono i risultati generati dall’AI piuttosto o molto affidabili.
Vale a dire la maggioranza. Nonostante tutti gli esempi pubblici di allucinazioni, nonostante le gaffe, nonostante gli avvertimenti, la gente si fida. Perché l’AI sembra autorevole. Parla con sicurezza. Non esita. E le persone interpretano quella sicurezza come accuratezza.
Uno studio del MIT ha dimostrato qualcosa di ancora più inquietante. Le persone tendono a considerare validi anche i responsi medici dell’AI poco accurati. Anche quando l’AI sbaglia, se lo fa con convinzione, la gente la segue. È un pregiudizio cognitivo pericoloso, si preferiscono risposte sicure e sbagliate, invece di risposte incerte ma corrette.
E questo crea una situazione esplosiva. Un’intelligenza artificiale che sbaglia sistematicamente ma parla con autorità, combinata con un pubblico che si fida troppo, è la ricetta perfetta ricetta per un disastro medico di massa. Non serve che tutti seguano i consigli sbagliati. Basta che lo faccia una percentuale anche piccola di milioni di persone per causare danni enormi.
Google dice che va tutto bene, ovviamente…
La risposta di Google all’indagine del Guardian è stata prevedibile. Un portavoce ha dichiarato che l’azienda investe significativamente nella qualità delle AI Overview, specialmente per temi come la salute, e la stragrande maggioranza fornisce informazioni accurate.
“Stragrande maggioranza” è una frase interessante. Significa che ammettono implicitamente che non tutto è accurato. Ma quanti errori sono accettabili quando si parla di salute? Se le AI Overview sbagliano nel 5% dei casi, e milioni di persone lo usano per cercare informazioni mediche, parliamo di centinaia di migliaia di consigli potenzialmente dannosi.
E poi c’è il problema della definizione di “accurato”. Un consiglio può essere tecnicamente accurato in senso generico ma completamente inappropriato per una condizione specifica. Il consiglio di evitare cibi grassi è accurato per chi ha colesterolo alto. È mortale per chi ha cancro al pancreas. Senza contesto medico completo, l’AI non può sapere la differenza. Ma la gente che legge non lo sa.
Google continuerà a dire che investe in qualità, che migliora gli algoritmi, che prende sul serio questi problemi. Ma intanto le AI Overview raggiungono miliardi di persone, e continuano a generare consigli potenzialmente pericolosi ogni volta che qualcuno cerca informazioni mediche.
I medici contro l’AI
La Canadian Medical Association non usa mezzi termini: definisce pericolosi i consigli generati dall’AI. I medici elencano i problemi: allucinazioni (informazioni inventate presentate come fatti), bias algoritmici (che possono discriminare certe popolazioni o condizioni), dati obsoleti (la medicina evolve rapidamente, l’AI si basa su dati di addestramento vecchi). Ogni singolo problema da solo è grave. Combinati insieme sono un cocktail tossico.
E ora i medici si trovano in una posizione assurda: devono combattere quotidianamente contro i miti creati dall’AI. Un paziente arriva convinto di qualcosa che ha letto su Google. Il medico deve prima smontare quella convinzione sbagliata, poi spiegare la verità. E in alcuni casi il paziente si fida più dell’AI che del medico vero, perché “l’hA letto su Google”.
Per ogni mito che un medico corregge, l’AI ne diffonde mille. Ma l’assurdità è che l’intelligenza artificiale stessa ammette di non essere affidabile. Qualcuno ha chiesto alle AI Overview: Dovrei fidarmi di te per consigli medici?
La risposta? L’AI ha citato l’indagine del Guardian che la accusa di essere inaffidabile… Fermiamoci un attimo ad apprezzare l’assurdità. Quando si chiede all’AI di Google se ci si può fidare di lui per questioni mediche, risponde citando un articolo che dice che non è affidabile. È un’ammissione involontaria. Ma è anche inutile. Perché la maggior parte delle persone non fa quella domanda, si fida e basta.
E Google lo sa. Sa che l’AI è inaffidabile per questioni mediche. Sa che dà consigli pericolosi. L’AI stessa lo ammette quando glielo chiedi direttamente. Eppure AI Overview continua a funzionare, continua a rispondere a domande di salute. Secondo gli esperti, è solo questione di tempo prima che un cattivo consiglio porti a una tragedia.