483 a favore, 92 contrari e 86 astensioni. Sono questi i numeri della votazione con la quale il Parlamento europeo ha approvato una risoluzione non vincolante che chiede di vietare i social fino a 16 anni. Il motivo è da ricercare nelle forti preoccupazioni per la salute fisica e mentale dei minori online
. Il testo mira inoltre a ottenere maggiori tutele contro le strategie manipolative che possono accresce la dipendenza
. È prevista un’eccezione dai 13 ai 15 anni, ma solo in presenza dell’autorizzazione dei genitori.
Parlamento europeo: niente social fino a 16 anni
Percorrere questa strada significa puntare all’adozione di un approccio standard per tutto il vecchio continente, senza lasciare che siano i singoli stati membri a muoversi in autonomia. L’iniziativa non mette nel mirino solo servizi come TikTok, Instagram, Facebook o X, ma anche piattaforma per la condivisione video (leggasi YouTube) e compagni virtuali basati sull’AI.

Per quanto riguarda la verifica dell’età, altro tema molto caldo in queste settimane, il Parlamento ha accolto con favore le indicazioni della Commissione che punta a sviluppare un’app europea dedicata e il portafoglio di identità digitale valido per tutta l’area Ue. Bisognerà però farlo garantendo la tutela della privacy.
Anche in presenza di un age gate, le aziende del settore saranno chiamate a impegnarsi affinché le loro piattaforme siano in ogni caso sicure per i minori.
Per una tutela dei minori a 360 gradi
Come anticipato, l’intervento non riguarda solo l’età minima per l’accesso ai social, ma interessa altri aspetti legati alla presenza online dei più giovani. Ecco le richieste del Parlamento.
- Vietare le pratiche di dipendenza più dannose e disattivare di default caratteristiche come lo scorrimento infinito dei feed, la riproduzione automatica, l’aggiornamento tramite trascinamento verso il basso, i cicli di ricompensa e la gamification;
- vietare i siti web che non rispettano le norme dell’UE;
- contrastare tecnologie persuasive come annunci mirati, pubblicità degli influencer, progettazione che crea dipendenza e percorsi oscuri (dark pattern);
- vietare i sistemi di raccomandazione basati sul coinvolgimento per i minori;
- applicare le norme del regolamento sui servizi digitali alle piattaforme di videogiochi online e vietare scatole premio e altri contenuti randomizzati, come valute interne all’app, ruote della fortuna e meccanismi pay-to-progress;
- tutelare i minori dallo sfruttamento commerciale, anche vietando alle piattaforme di fornire incentivi finanziari per i bambini influencer;
- affrontare con urgenza le sfide etiche e giuridiche poste dagli strumenti di intelligenza artificiale generativa, come deepfake, chatbot da compagnia, agenti AI e app per denudare basate sull’AI.
Insomma, un’azione ad ampio raggio che interessa anche i videogiochi e i servizi di intelligenza artificiale. L’urgenza dell’iniziativa è dettata dal fatto che oggi un minore su quattro (studio) fa un uso problematico
o disfunzionale
dello smartphone.