Google, OpenAI, Roblox e Discord hanno dato vita a ROOST (Robust Open Online Safety Tools). È un’organizzazione no-profit che si propone di sviluppare strumenti AI open-source per identificare, esaminare e segnalare materiale di abuso sessuale sui minori.
Nasce ROOST: il gruppo di Roblox, Discord, OpenAI e Google per proteggere i minori online
Questa iniziativa nasce dalla consapevolezza che l’intelligenza artificiale ha trasformato il panorama online. Con la crescente diffusione di strumenti AI avanzati, diventa sempre più urgente sviluppare soluzioni per garantire la sicurezza dei minori.
Ma cosa farà concretamente ROOST? L’idea è di mettere a disposizione di altre aziende un arsenale di modelli AI in grado di analizzare il linguaggio, di dataset per l’addestramento delle macchine e di un sistema unificato per gestire i contenuti inappropriati. Un vero e proprio scudo digitale per proteggere i più piccoli dalle insidie del web.
Oggi la moderazione dei contenuti online sta diventando sempre più complessa. Anche a causa dell’intelligenza artificiale. Il volume e la varietà dei materiali da vagliare sono cresciuti in modo esponenziale.
I numeri sono allarmanti. I casi di sospetto sfruttamento di minori sono aumentati del 12% tra il 2022 e il 2023, come segnala il National Center for Missing and Exploited Children. Del resto Roblox e Discord sono state accusate più volte di non aver fatto abbastanza per proteggere i più giovani.
Internet più sicuro per tutti
Ma ROOST non si limiterà a sviluppare strumenti di moderazione. Creerà anche una comunità di esperti per condividere conoscenze e best practice nel campo della sicurezza online. Un approccio nel segno della collaborazione, con un unico scopo: creare un Internet più sicuro per tutti, a partire dai più vulnerabili.