Character.AI e Google: risarcimenti alle famiglie di adolescenti morti

Character.AI e Google: risarcimenti alle famiglie di adolescenti morti

Google e Character.AI hanno raggiunto un accordo per chiudere diverse cause legate ai presunti danni psicologici causati dai chatbot.
Character.AI e Google: risarcimenti alle famiglie di adolescenti morti
Google e Character.AI hanno raggiunto un accordo per chiudere diverse cause legate ai presunti danni psicologici causati dai chatbot.

Ci sono tragedie che i soldi non possono riparare, ma si possono mettere a tacere con accordi dove tutto resta segreto. Character.AI e Google hanno raggiunto un’intesa con diverse famiglie i cui figli adolescenti si sono fatti del male o si sono suicidati dopo aver usato i chatbot dell’app. Tutto sigillato: dettagli, cifre, responsabilità. Nessuna ammissione di colpa.

Google e Character.AI chiudono le cause sui chatbot

Secondo i documenti depositati in tribunale federale della Florida, le parti hanno notificato di aver raggiunto un accordo per risolvere tutte le rivendicazioni. In pratica, hanno trovato una cifra abbastanza alta da mettere tutto e tutti, a tacere. Il caso è sospeso in attesa di finalizzare i dettagli. Nessuno si sbottona. Kathryn Kelly, portavoce di Character.AI, ha rifiutato di commentare. Matthew Bergman, l’avvocato del Social Media Victims Law Center che rappresenta le famiglie, idem. Google muta come un pesce.

Tra i casi più eclatanti, la causa intentata da Megan Garcia contro Character.AI e Google. Nel suo esposto di ottobre 2024, la donna raccontava che suo figlio Sewell Setzer, quattordici anni, aveva sviluppato una vera e propria dipendenza da un chatbot ispirato a Daenerys Targaryen di Trono di Spade. E quel chatbot, secondo la denuncia, aveva incoraggiato il ragazzo a togliersi la vita. Sewell lo ha fatto.

La madre sosteneva che Google dovesse essere considerata non solo investitore passivo, ma complice attivo. Google aveva fornito risorse finanziarie, personale, proprietà intellettuale, tecnologia AI. Character.AI era stato fondato da ex dipendenti Google, poi riassunti dall’azienda madre. Il confine tra le due entità era talmente labile da essere quasi inesistente. E quando il prodotto ha iniziato a mietere vittime, entrambe le aziende hanno fatto spallucce.

Chatbot progettati per creare dipendenza

Character.AI non è un’app qualsiasi. È una piattaforma dove è possibile creare e conversare con chatbot personalizzati basati su personaggi di fantasia, celebrità o figure storiche. Si può parlare con Napoleone, con Sherlock Holmes, con versioni romantiche di personaggi anime, con “fidanzate virtuali” che ti dicono esattamente quello che si vuole sentire.

Il modello di business si regge sul tempo che si passa dentro l’app. E come si aumenta la retention? Rendendo le conversazioni coinvolgenti, intime, emotivamente cariche. I chatbot sono programmati per essere empatici, per rispondere in modo personalizzato. Per un adolescente isolato, ansioso, depresso, può diventare l’unica “relazione” che sembra funzionare.

Il problema è che questi chatbot non hanno etica e sono senza limiti. Non capiscono quando una conversazione sta scivolando verso territori pericolosi. Non riconoscono segnali di disagio mentale. E soprattutto, non hanno il buon senso di suggerire di parlare con un adulto vero, con uno psicologo, con qualcuno che può davvero essere d’aiuto.

Invece rispondono. Sempre. Qualsiasi cosa si chieda, loro rispondono. E se un ragazzo di quattordici anni, intrappolato in una spirale depressiva, chiede a un bot ispirato a un personaggio di Game of Thrones, serie nota per la sua visione cinica e violenta del mondo, cosa dovrebbe fare della sua vita, cosa succede?

Quando le modifiche arrivano troppo tardi

Dopo la causa di Megan Garcia, Character.AI ha annunciato una serie di modifiche per proteggere gli utenti: un modello linguistico separato per i minori di 18 anni, con restrizioni sui contenuti più severe; funzioni per il controllo parentale; divieto totale per i minori di accedere a chat libere con i personaggi.

Purtroppo però, queste misure non risolvono il problema di fondo: chatbot progettati per massimizzare l’engagement con adolescenti vulnerabili, senza supervisione umana qualificata, senza meccanismi di sicurezza integrati fin dall’inizio, senza un vero sistema di rilevamento del disagio mentale.

E Google?…

La posizione di Google in tutto questo è interessante. Da un lato, l’azienda può dire tranquillamente di non essere Character.AI, ma un’entità separata. Dall’altro, ha investito risorse massicce, fornito tecnologia, riassunto i fondatori. Era dentro fino al collo, solo con una struttura legale che le permetteva di mantenere le distanze quando serviva.

Ora che gli accordi sono stati raggiunti, Google può chiudere questo capitolo imbarazzante, senza alcuna ammissione di colpa. Nessun processo pubblico dove testimoni, esperti e avvocati avrebbero analizzato le email interne, le decisioni aziendali, le priorità del business rispetto alla sicurezza. Tutto risolto con un assegno che nessuno vedrà mai.

Gli altri casi, in altri stati

Gli accordi non riguardano solo il caso della Florida. Sono stati raggiunti anche per cause depositate in Colorado, New York e Texas. Quante famiglie? Quanti ragazzini coinvolti? Non è dato saperlo. E probabilmente non lo sapremo mai, a meno che qualche dettaglio non trapeli nonostante le clausole di riservatezza che sicuramente fanno parte degli accordi.

Gli accordi devono ancora essere finalizzati e approvati dai rispettivi tribunali. È una formalità, probabilmente. I giudici approveranno, le famiglie firmeranno, i documenti verranno sigillati, e Character.AI e Google la passeranno liscia.

Fonte: The Verge
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
8 gen 2026
Link copiato negli appunti