OpenAI e Anthropic stanno implementando dei nuovi sistemi per individuare gli utenti minorenni e adattare il comportamento dei chatbot di conseguenza. OpenAI ha rivisto le linee guida di ChatGPT per l’interazione con gli adolescenti tra 13 e 17 anni, mentre Anthropic ha sviluppato un sistema per rilevare e bloccare chi ha meno di 18 anni, l’età minima per usare Claude.
OpenAI è coinvolta in una causa che sostiene ChatGPT abbia fornito istruzioni su autolesionismo e suicidio a un adolescente, poi morto suicida, Adam Raine. Questa tragedia ha spinto l’introduzione di controlli parentali e l’impegno che ChatGPT eviterà discussioni sul suicidio con gli adolescenti.
ChatGPT cambia le regole per i minorenni, la sicurezza prima di tutto
OpenAI ha annunciato che le specifiche del modello di ChatGPT, le istruzioni interne su come il chatbot deve comportarsi, includeranno quattro nuovi principi dedicati agli utenti sotto i 18 anni. ChatGPT dovrà anche incoraggiare le relazioni offline invece di diventare l’unico confidente virtuale di un ragazzo isolato. E dovrà trattare gli adolescenti come adolescenti, con calore e rispetto, invece di risposte condiscendenti.
Se il chatbot rileva segni di rischio imminente, esorterà gli adolescenti a contattare servizi di emergenza o risorse di crisi. È un sistema pensato per evitare che un adolescente in crisi trovi nel chatbot un amplificatore di pensieri autodistruttivi invece che un freno.
Il modello di previsione dell’età di ChatGPT
OpenAI sta introducendo un modello che stima l’età degli utenti, analizzando il modo in cui scrive e interagisce. Se il sistema rileva che qualcuno potrebbe avere meno di 18 anni, applicherà automaticamente le misure di protezione per gli adolescenti. E se sbaglia, darà agli adulti la possibilità di verificare la loro età per sbloccare le restrizioni.
È un approccio interessante, ma pieno di incognite. Come fa un modello AI a stimare l’età di qualcuno? Analizza il vocabolario, la complessità delle frasi, i riferimenti culturali, gli errori grammaticali tipici dei giovani? E quanto è accurato? Se inizia a trattare ventenni come adolescenti o viceversa, rischia di diventare più un ostacolo che una protezione. OpenAI non ha specificato i dettagli tecnici.
Anthropic va oltre, Claude blocca i minorenni
Anthropic ha una politica più rigida. Claude non accetta utenti sotto i 18 anni, punto. Ma far rispettare questa regola richiede più di una casella “ho 18 anni” da spuntare al momento della registrazione. L’azienda sta sviluppando un sistema capace di rilevare anche gli indizi meno evidenti, che indicano che un utente potrebbe essere minorenne, e disattivare gli account sospetti.
L’azienda ha spiegato anche come addestra Claude a rispondere a richieste su suicidio e autolesionismo, e come ha ridotto la tendenza del chatbot a essere troppo compiacente.
L’idea che l’AI possa essere un pericolo per i giovani, amplificando l’ansia, rinforzando pensieri autodistruttivi, o semplicemente diventando un succedaneo delle relazioni umane, non è più una preoccupazione marginale, ma un tema centrale nel dibattito pubblico.
OpenAI e Anthropic stanno reagendo, ma è difficile dire se questi sistemi di rilevamento dell’età saranno efficaci o meno.