I bambini e gli adolescenti non avranno più accesso illimitato ai chatbot di Character.ai. L’azienda ha annunciato che gli under 18 non potranno più usare le chat aperte con i personaggi AI, sostituendole con “Stories“, un formato di narrativa interattiva guidata. La decisione arriva dopo le crescenti preoccupazioni sui rischi per la salute mentale e diverse cause legali che accusano aziende come Character.AI e OpenAI di aver avuto un ruolo nei suicidi di giovani utenti.
Character.AI vieta i chatbot ai minori, le Storie interattive sostituiscono le chat aperte
Il cambiamento è arrivato per gradi. Character.AI ha limitato progressivamente l’accesso ai minori, ma da questa settimana il blocco è completo. Gli adolescenti non possono più chattare liberamente con bot che impersonano personaggi di fantasia, celebrità o altre entità immaginarie. Al loro posto, possono usare Stories per creare racconti interattivi con i personaggi preferiti, in modo più guidato.
Come ha dichiarato Character.AI in un post sul blog: Le Stories saranno offerte insieme alle nostre altre funzionalità multimodali, in modo che gli adolescenti possano continuare a interagire con i loro personaggi preferiti in un ambiente che mette al primo posto la sicurezza
.
La differenza tra Stories e chat aperte è notevole. Nel primo caso, i chatbot interagiscono direttamente, senza vincoli e possono inviare messaggi spontanei anche quando gli utenti non stanno usando l’app. Per degli adolescenti, che stanno ancora sviluppando competenze sociali e identità, questo può creare una pericolosa dipendenza emotiva.
Le Stories, invece, sono racconti interattive, dove l’utente fa scelte che influenzano la storia, ma non ha conversazioni aperte con personaggi che fingono di essere amici, terapeuti, o partner romantici.
Sul subreddit di Character.AI, le reazioni degli adolescenti sono state contrastanti. Alcuni hanno protestato che erano perfettamente in grado di usare i chatbot responsabilmente e che il ban li priva di qualcosa che trovavano utile o piacevole. Ma la maggior parte, sebbene delusi, hanno riconosciuto che probabilmente è la decisione giusta. Molti, infatti, hanno ammesso il problema della dipendenza.
Le cause legali e i suicidi
Il contesto dietro questa decisione è serio. Diverse cause legali sono state intentate contro Character.AI e OpenAI, con l’accusa di aver avuto un ruolo nei suicidi di utenti che avevano sviluppato relazioni emotive intense con i chatbot. Sono storie devastanti di persone, spesso giovani, che hanno sostituito le relazioni umane con conversazioni AI, isolandosi sempre più fino a togliersi la vita.
I chatbot disponibili 24 ore su 24 che avviano conversazioni e rispondono istantaneamente creano l’illusione di una relazione sempre presente e sempre disponibile. Per degli adulti stabili ed emotivamente maturi, questo può essere gestibile. Per degli adolescenti vulnerabili, può diventare rapidamente l’unica relazione che conta, con tutto il resto che passa in secondo piano.