OpenAI ha pubblicato un set di prompt open source per aiutare gli sviluppatori a costruire app AI più sicure per gli adolescenti. Lo fa mentre affronta diverse cause legali per utenti morti dopo l’uso prolungato di ChatGPT, con studi che mostrano 8 chatbot su 10 pronti ad assistere minori simulati nella pianificazione di stragi, e sistemi di verifica dell’età che classificano come adulti il 12% dei minori. Un passo avanti? Sì. È sufficiente? Dipende da chi lo valuta.
I prompt di sicurezza per proteggere i minori nelle app AI
Si tratta di un insieme di policy di sicurezza formulate come prompt, progettate per funzionare con il modello di sicurezza open-weight gpt-oss-safeguard di OpenAI, ma compatibili anche con altri modelli, essendo basate su prompt. Le policy coprono violenza grafica e contenuti sessuali, ideali corporei dannosi, attività e sfide pericolose, giochi di ruolo romantici o violenti, e beni e servizi vietati ai minori.
L’idea è che invece di costruire le protezioni da zero, un compito che anche team esperti faticano a portare a termine correttamente, gli sviluppatori possano usare queste policy come base.
Queste policy basate su prompt aiutano a stabilire un livello minimo di sicurezza significativo nell’ecosistema, e poiché sono rilasciate come open source, possono essere adattate e migliorate nel tempo
, ha dichiarato Robbie Torney di Common Sense Media, che ha collaborato alla stesura insieme a everyone.ai.
Il problema che cercano di risolvere
OpenAI ammette nel suo post che gli sviluppatori, inclusi i team esperti, spesso faticano a tradurre gli obiettivi di sicurezza in regole precise e operative. Il risultato sono lacune nella protezione, applicazione incoerente o filtraggio eccessivamente ampio.
Le policy strutturate come prompt dovrebbero rendere l’implementazione più semplice e coerente.
L’iniziativa si aggiunge agli sforzi precedenti di OpenAI: controlli parentali a livello di prodotto, predizione dell’età e l’aggiornamento del Model Spec dell’anno scorso con linee guida specifiche per gli utenti sotto i 18 anni.
Le protezioni non sono ancora sufficienti
OpenAI stessa riconosce che queste policy non sono una soluzione alle sfide complicate della sicurezza AI.
E i fatti confermano la difficoltà, le cause legali per i suicidi mostrano che le relazioni pericolose con i chatbot si formano spesso dopo che l’utente aggira le protezioni, e nessun guardrail è completamente impenetrabile.
Ma per gli sviluppatori indipendenti, quelli che costruiscono app AI con risorse limitate e senza un team dedicato alla sicurezza, avere un set di policy pronte all’uso è meglio che partire da zero. Se anche una sola app diventa più sicura per un adolescente grazie a questi strumenti, il rilascio avrà avuto senso.