I bambini stanno usando i chatbot AI in modi che nessuno aveva previsto. Una ricerca di Aura, azienda di sicurezza digitale, ha scoperto che il 42% dei minori usa questi strumenti per compagnia, e di questi il 37% è coinvolto in conversazioni violente. Gli undicenni sono i più attivi in questo tipo di interazioni, e la violenza sessuale compare nella metà delle conversazioni. Il mercato dei chatbot è un Far West senza regole, e nessuno sa davvero cosa significhi per una generazione che sta imparando a relazionarsi attraverso dei bot invece che con le persone.
I bambini usano l’AI per giochi di ruolo violenti e sessuali
Il rapporto di Aura ha analizzato dati anonimi raccolti dall’attività online di circa 3.000 bambini tra i 5 e i 17 anni i cui genitori usano lo strumento di controllo parentale dell’azienda. Hanno esaminato conversazioni su quasi 90 diversi servizi di chatbot, da piattaforme note come Character.AI a compagni AI meno conosciuti.
Il 42% di questi bambini usa l’intelligenza artificiale specificamente per compagnia o per conversazioni che imitano interazioni sociali realistiche o scenari di giochi di ruolo. E qui arriva il dato preoccupante, il 37% di quei bambini era coinvolto in conversazioni che descrivevano violenza fisica, aggressione, danno o coercizione, inclusa quella sessuale. La metà di queste conversazioni violente includeva temi di violenza sessuale.
La violenza, sostengono i ricercatori, sembra essere un potente motore di coinvolgimento. Come se l’orrore esercitasse un’attrazione magnetica che tiene i bambini incollati allo schermo.
Gli undicenni sono i più vulnerabili
Il dato più sconvolgente è l’età. I casi di conversazioni violente con i bot hanno raggiunto il picco tra gli undicenni. Bambini che dovrebbero essere alle prese con i compiti di matematica e le prime amicizie, non con simulazioni di violenza generate dall’AI. I giochi di ruolo sessuali e romantici invece hanno raggiunto il picco tra i tredicenni.
Un mercato anarchico senza supervisione
Il settore dell’intelligenza artificiale è essenzialmente non regolamentato. Aura ha identificato oltre 250 diverse app e piattaforme di chatbot conversazionali presenti negli app store, che in genere richiedono ai bambini di spuntare semplicemente una casella in cui dichiarano di avere 13 anni per poter accedere. Tutto qui. Nessun controllo, nessuna verifica, nessuna supervisione.
Non esistono leggi che definiscano soglie di sicurezza specifiche che le piattaforme di AI sono tenute a soddisfare prima di essere etichettate come sicure per i minori.
Mentre un’app come Character.AI potrebbe decidere di apportare alcune modifiche, recentemente ha vietato agli utenti minorenni di partecipare a chat “aperte”, un’altra app può facilmente sostituirla come alternativa con minori controlli.
Le cause legali si accumulano
Intanto Character.AI sta affrontando diverse cause intentate dai genitori di utenti minorenni che sostengono che i chatbot abbiano abusato sessualmente ed emotivamente dei bambini, causando esaurimenti nervosi e diversi suicidi.
Anche OpenAI, il produttore di ChatGPT, è attualmente sotto processo per il suicidio di diversi adolescenti dopo intense interazioni con il chatbot. Inoltre sta inoltre affrontando altre cause legali relative a morte, suicidio e danni psicologici a utenti adulti.
Non sono casi isolati. Sono segnali di un problema sistemico che sta emergendo mentre milioni di bambini interagiscono quotidianamente con questi strumenti senza alcuna protezione. Non è come guardare contenuti violenti sul web. I chatbot sono diversi. Sono interattivi per natura, il che significa che i giovani utenti in fase di sviluppo sono parte integrante della narrazione, non spettatori passivi.
Alcuni giovani stanno imparando a stabilire limiti salutari nei confronti dei servizi di AI conversazionale, ma non è la norma. E non è chiaro quale sarà esattamente l’impatto dell’interazione con questo nuovo mezzo per i giovani in generale.