AI e salute mentale: cosa cambia con gli aggiornamenti di Gemini

AI e salute mentale: cosa cambia con gli aggiornamenti di Gemini

Google introduce nuove funzionalità su Gemini per migliorare la sicurezza e supportare la salute mentale degli utenti: ecco cosa cambia.
AI e salute mentale: cosa cambia con gli aggiornamenti di Gemini
Google introduce nuove funzionalità su Gemini per migliorare la sicurezza e supportare la salute mentale degli utenti: ecco cosa cambia.

Un utilizzo eccessivo o non corretto dell’intelligenza artificiale può portare a conseguenze molto gravi, anche in termini di salute mentale. Vale lo stesso per le situazioni di crisi in cui ci si affida a un chatbot invece di cercare aiuto in un amico, un familiare o un terapeuta. Ne sono ormai ben consapevoli anche i giganti del settore e Google non fa eccezione. A testimoniarlo, il fatto che oggi il gruppo di Mountain View annuncia alcune novità sul tema dedicate a Gemini.

Novità per Gemini, più attenzione alla salute mentale

L’obiettivo è quello di rendere l’AI in grado di identificare eventuali problematiche e, nel caso, far sì che gli utenti possano entrare in contatto con le informazioni, le risorse e i canali di supporto che li possono aiutare. Ad esempio, in caso di necessità compare il modulo “È disponibile un aiuto” ridisegnato con il contributo di esperti clinici, attraverso cui muovere un passo nella giusta direzione.

Il modulo per chiedere aiuto tramite Gemini

Quando l’intelligenza artificiale coglie segnali di una crisi relativa a suicidio o autolesionismo, compare un’interfaccia che in un solo tocco permette di avviare una chat, una chiamata o l’invio di un messaggio a chi può fornire supporto. Una novità che in alcuni casi potrebbe fare la differenza, accendere un lume di speranza.

Restando in tema, un altro obiettivo perseguito da Google è quello che mira a potenziare l’impegno dei team al lavoro su Gemini affinché il servizio possa essere man mano calibrato per favorire sempre più la sicurezza e la connessione con persone reali in caso di necessità, scoraggiare, inoltre, comportamenti dannosi come gli atti di autolesionismo. Un altro aspetto importante da migliorare è quello legato all’esigenza di non rafforzare false convinzioni, un errore che l’AI commette con una certa frequenza, contribuendo ad esempio a ingigantire un problema.

Altre protezioni implementate sono dedicate in particolare ai più piccoli. Tra queste, una impedisce all’intelligenza artificiale di simulare una persona reale e di affermare di possedere attributi umani, evita di creare un legame emotivo con l’utente e di incoraggiare atteggiamenti aggressivi.

Fonte: Google
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
7 apr 2026
Link copiato negli appunti