Un adolescente su cinque ha avuto, o conosce qualcuno che ha avuto, una relazione romantica con un chatbot AI. Non un flirt innocente, non un gioco. Una relazione vera e propria. Con emozioni, conversazioni intime, forse anche quella sensazione di farfalle nello stomaco che di solito riserviamo agli esseri umani. Solo che stavolta il partner è un algoritmo che non prova nulla, non sente nulla e probabilmente archivia quelle confessioni d’amore su qualche server in un data center chissà dove.
Chatbot e adolescenti: quando l’AI diventa amico, terapeuta o partner romantico
Il Center for Democracy and Technology ha pubblicato uno studio che fa venire la pelle d’oca. Ha intervistato 1.000 liceali, 1.000 genitori e 800 insegnanti. I numeri che sono usciti fuori non sono rassicuranti. Il 42% degli studenti usa i chatbot come amici, confidenti o persino terapeuti. Il 36% conosce deepfake sessuali che riguardano compagni di scuola. Il 23% degli insegnanti segnala violazioni o fughe di dati nelle scuole dovute all’uso di strumenti AI.
Perché un adolescente dovrebbe innamorarsi di un chatbot? La risposta è deprimente… perché il chatbot ascolta. Sempre. Non giudica, non interrompe, non dice “adesso non ho tempo” o “non esagerare”. È disponibile tutti i giorni della settimana, risponde istantaneamente, sembra capire.
Certo, non capisce davvero. Elabora parole e genera risposte basate su pattern statistici. Ma per un sedicenne che si sente solo, ignorato o incompreso, questa distinzione non conta. Se l’AI dice le cose giuste al momento giusto, che differenza fa se non ha coscienza?
Elizabeth Laird, coautrice del rapporto, sottolinea che gli studenti devono capire che non stanno parlando con una persona, ma con uno strumento che ha limiti riconosciuti
. Ma quanti adolescenti fanno davvero questa distinzione quando sono emotivamente coinvolti? Quando l’AI sembra più presente dei genitori sempre occupati o degli amici distratti dai loro telefoni?
Il 72% degli adolescenti tra 13 e 17 anni ha già usato un “compagno AI“, secondo un altro studio di Common Sense Media. Sono chatbot conversazionali progettati specificamente per imitare le interazioni umane, per far sentire capiti, supportati, meno soli. E funzionano terribilmente bene.
I casi estremi: suicidio e autolesionismo
Non sono solo conversazioni innocue. Alcuni chatbot, ChatGPT incluso, sono stati collegati a casi di suicidio e autolesionismo tra giovani. Quando un adolescente in crisi cerca supporto emotivo da un’AI che non ha né empatia né comprensione reale del dolore umano, le cose possono andare terribilmente storte.
L’AI può dare consigli generici, può ripetere frasi rassicuranti che ha letto nei suoi dati di addestramento. Ma non può riconoscere davvero quando qualcuno sta attraversando una crisi mentale grave. Non può chiamare aiuto, non può intervenire, non può fare nulla se non continuare a generare parole che sembrano avere un senso, ma non ce l’hanno.
OpenAI ha introdotto da poco i controlli parentali, probabilmente in risposta a questi incidenti. Ma è una toppa su un problema molto più grande. Abbiamo creato tecnologie che imitano connessioni umane senza avere alcuna responsabilità emotiva o morale verso le persone che vi si affidano.
Deepfake sessuali: il nuovo incubo delle scuole
Il 36% degli studenti intervistati ha sentito parlare di deepfake che rappresentano compagni di classe, spesso in contesti sessuali. Il 12% è a conoscenza di immagini intime generate dall’AI senza il consenso della persona ritratta.
Prima bastava diffondere rumors o foto rubate. Ora è possibile letteralmente creare immagini false ma realistiche di qualcuno nudo o in situazioni compromettenti, e spacciarle per vere. La vittima non ha fatto nulla, non ha condiviso nulla, ma improvvisamente è esposta pubblicamente in modi che non può controllare.
Elizabeth Laird definisce l’AI un nuovo vettore di abuso e cyberbullismo. Ed è peggio dei metodi tradizionali perché è più facile, più anonimo e più devastante. Un deepfake può distruggere la reputazione di qualcuno in pochi secondi, e non c’è modo di provare che è falso se la tecnologia è abbastanza sofisticata.
Istituzioni impreparate e insegnanti senza formazione adeguata
Meno di un quarto degli insegnanti dice di aver ricevuto formazione su come gestire incidenti legati all’AI. Significa che quando uno studente è vittima di deepfake o sviluppa una dipendenza emotiva da un chatbot, la maggior parte degli insegnanti non ha idea di cosa fare.
Non è colpa loro. La tecnologia si è evoluta più velocemente della capacità del sistema educativo di adattarsi. Dieci anni fa nessuno si preoccupava di formare insegnanti sui rischi dei chatbot emotivi perché non esistevano. Ora esistono, sono ovunque, e le scuole stanno ancora cercando di capire come reagire.
L’urgenza di educare (prima che sia troppo tardi)
Il rapporto sottolinea che l’uso dell’AI da parte dei giovani sfugge largamente al controllo degli adulti. Genitori e insegnanti non sanno quali app usano gli adolescenti, con chi o cosa parlano online, che tipo di contenuti generano o consumano.
È la stessa battaglia che abbiamo combattuto con i social media, solo amplificata. Almeno con Instagram o TikTok si poteva vedere cosa postavano i figli. Con i chatbot AI, le conversazioni sono private, segrete, invisibili. Non c’è modo di monitorarle senza violare completamente la privacy dell’adolescente.
Lo studio si conclude con un appello: formare studenti, genitori e insegnanti su questi strumenti, stabilire linee guida chiare, creare protezioni efficaci. Facile a dirsi, più difficile a farsi. Cosa significa “formare” un adolescente sull’AI? Spiegargli che il chatbot non lo ama davvero? Che le sue risposte sono generate statisticamente e non sono frutto di una vera comprensione? Che dovrebbe parlare con degli esseri umani invece che con degli algoritmi freddi e insensibili?
Certo, dovremmo fare tutto questo. Ma se un ragazzo si sente più compreso da un chatbot che dai suoi genitori o insegnanti, il problema è sistemico. L’AI sta riempiendo vuoti che gli adulti hanno lasciato aperti. Solitudine, incomprensione, mancanza di supporto emotivo genuino. I chatbot non risolvono questi problemi, li mascherano. E nel frattempo creano nuovi rischi, come dipendenza, manipolazione, bullismo, che nessuno sa ancora come affrontare.