In un video che dovrebbe essere una filastrocca sulle automobili, i bambini viaggiano senza cintura e camminano in mezzo alla strada con le auto in movimento alle spalle. In un altro, un neonato ingoia un acino d’uva intero, considerato ad alto rischio di soffocamento. In un altro ancora, un bebè mangia il miele, che può uccidere i lattanti. Un’ulteriore perla: un bambino morde una mela che trasuda sangue. Tutti video generati dall’AI, destinati a bambini in età prescolare, e tutti su YouTube, spacciati come contenuti “educativi.”
Su YouTube video AI pericolosi spacciati per educativi, l’allarme degli esperti
Un’inchiesta congiunta di The 74 e Mother Jones ha documentato la proliferazione di video AI per bambini su YouTube che insegnano cose sbagliate, pericolose o semplicemente prive di senso. Il canale responsabile della filastrocca sulle automobili ha caricato oltre 10.000 video in sette mesi, vale a dire una media di 50 video al giorno.
Secondo un rapporto di Kapwing citato da The 74, il 21% del feed di YouTube è ormai occupato da contenuti AI di bassa qualità. Un trend inquietante, confermato anche da un’indagine del New York Times su oltre 1.000 Short di YouTube raccomandati ai bambini, senza alcun valore educativo.
Secondo gli esperti, la disinformazione generata dall’AI è molto rischiosa per il cervello in via di sviluppo. Colpisce i bambini nelle fasi iniziali dello sviluppo cognitivo, quando ogni esperienza costruisce milioni di nuove connessioni neurali.
Quando si imparano informazioni contraddittorie o sbagliate, il cervello deve prima disimparare e poi correggere. Questo rallenta tutto il processo. Se s’insegnano cose incoerenti, si perde tempo a orientarsi e a capire cosa è giusto. Non si impara in modo lineare, ma si correggono gli errori continuamente.
Inoltre, questo spreca energie mentali. Invece di usare l’attenzione per capire e applicare concetti utili, si utilizza per rimettere ordine a informazioni confuse o senza senso. E ogni volta che succede, si rallenta anche tutto ciò che si dovrebbe imparare dopo.
YouTube non riesce (o non vuole) fermare l’AI Slop
Un portavoce di YouTube ha dichiarato a The74 che la piattaforma applica principi di qualità più rigorosi per i contenuti destinati ai bambini. Ma i video continuano a passare, e il motivo è una falla nelle regole. YouTube richiede che i contenuti AI siano etichettati solo se appaiono “realistici.” Lo stile cartoonesco della maggior parte di questi video li esclude automaticamente dall’obbligo.
È anche vero che nessuno dei video dell’inchiesta era su YouTube Kids. Ma erano comunque destinati ai bambini, e molti genitori lasciano i figli usare YouTube con un account normale. L’algoritmo, nel frattempo, sembra favorire la spazzatura AI, o i produttori di slop sanno come manipolarlo, o il contenuto è semplicemente così pervasivo da essere inevitabile. Probabilmente tutte e tre le cose.
Il problema non è che questi video esistono, è che YouTube li diffonde.