Un uovo gigante rotola fuori da un fienile e ne esce un cavallo dalle proporzioni impossibili. Una quaglia si trasforma in un drone. Un rinoceronte diventa un camion con la propria testa ancora attaccata… Sono gli Short di YouTube raccomandati dall’algoritmo a bambini sotto i cinque anni.
Video AI per bambini su YouTube: gli esperti avvertono sui danni cognitivi
Il New York Times ha analizzato oltre mille Short raccomandati dalla piattaforma ai bambini e ha scoperto che l’algoritmo promuove in massa contenuti generati dall’AI pensati esplicitamente per i bambini molto piccoli, di circa 1-3 anni e di 3-5 anni.
Il dato più inquietante non è la percentuale in sé, ma il meccanismo: i giornalisti hanno iniziato guardando canali per bambini popolari e affidabili. L’algoritmo, invece di proporre contenuti simili, ha virato rapidamente verso i contenuti spazzatura generati dall’AI.
Questi video si presentano come educativi, insegnano l’alfabeto, i nomi degli animali, i colori. Ma l’etichetta è un travestimento. Il contenuto non racconta una storia, non ha personaggi riconoscibili, non ha una trama. È puro stimolo visivo, immagini iperrealistiche e assurde che si susseguono senza alcuna logica.
La mancanza di significato di questi video è un problema enorme. L’unico scopo è catturare l’attenzione
, ha spiegato Jenny Radesky, pediatra comportamentale all’Università del Michigan. Nel caso peggiore, sono così fantastici e pieni di stimoli da sovraccaricare cognitivamente il bambino.
Le immagini iperrealistiche generate dall’AI, ha aggiunto Radesky, potrebbero compromettere la capacità dei bambini piccoli di distinguere la fantasia dalla realtà, un’abilità fondamentale nello sviluppo cognitivo.
Rachel Barr, psicologa dello sviluppo e direttrice del Georgetown University Early Learning Project, ha spiegato al NYT che i bambini imparano meglio da contenuti con una storia semplice, personaggi riconoscibili e situazioni che ricordano la vita reale. L’opposto dei video generati dall’AI pieni di scene assurde e iperrealistiche, come animali che saltano da un trampolino o si trasformano in veicoli militari.
YouTube non ha regole per questo tipo di contenuto
YouTube richiede ai creator di dichiarare l’uso dell’AI per i contenuti realistici, ma non impone lo stesso obbligo per lo stile cartoonesco usato dagli Short per i bambini. Una lacuna che lascia l’intero onere della protezione ai genitori, che dovrebbero monitorare attentamente cosa guardano i propri figli su un’app progettata per lo scroll infinito.
I creatori di AI slop amano l’alfabeto perché offre una struttura minima per incollare una sequenza di clip senza senso mantenendo una parvenza di coerenza.
La soluzione più sicura sarebbe non far usare queste app ai bambini piccoli. Ma questo ignora la realtà di milioni di genitori che usano tablet e smartphone per intrattenere i figli, una realtà che YouTube conosce benissimo, e di cui sta traendo profitto senza fornire le protezioni adeguate.