OpenAI lancia l'Hub sulla sicurezza dell'AI per valutare i rischi

OpenAI lancia l'Hub sulla sicurezza dell'AI per valutare i rischi

OpenAI pubblicherà con maggiore frequenza i risultati dei test sulla sicurezza dei suoi modelli AI sulla pagina web Safety Evaluations Hub.
OpenAI lancia l'Hub sulla sicurezza dell'AI per valutare i rischi
OpenAI pubblicherà con maggiore frequenza i risultati dei test sulla sicurezza dei suoi modelli AI sulla pagina web Safety Evaluations Hub.

OpenAI si impegna a pubblicare più spesso i risultati delle valutazioni interne sulla sicurezza dei suoi modelli AI. L’azienda, infatti, ha lanciato il Safety Evaluations Hub, una pagina web che mostra come i modelli ottengono i punteggi nei vari test per la generazione di contenuti dannosi, jailbreak e allucinazioni.

Il nuovo Hub DI OpenAI per misurare i rischi dell’intelligenza artificiale

OpenAI ha dichiarato che il nuovo Hub non sarà una semplice vetrina statica, ma intende aggiornarlo regolarmente. Inoltre, ogni volta che un modello importante riceverà un aggiornamento sostanziale, l’Hub verrà aggiornato.

Nel post sul blog, OpenAI ha scritto che vuole migliorare il modo in cui misura la sicurezza e le capacità dei suoi modelli. Per questo motivo, condividerà regolarmente alcuni dei risultati di queste valutazioni, così che sia più facile capire come cambiano le prestazioni nel tempo. L’obiettivo è anche incoraggiare maggiore trasparenza in tutto il settore dell’intelligenza artificiale.

La risposta di OpenAI alle preoccupazioni sulla sicurezza dei suoi modelli

Negli ultimi mesi, OpenAI ha suscitato l’ira di alcuni esperti di etica per aver accelerato i test di sicurezza di alcuni modelli di punta e per non aver rilasciato un rapporto tecnico per GPT-4.1. Sam Altman è stato anche accusato di aver ingannato i dirigenti di OpenAI sulle revisioni di sicurezza del modello prima del suo breve allontanamento a novembre 2023.

Alla fine del mese scorso, OpenAI è stata costretta a ritirare anche un aggiornamento di ChatGPT. Gli utenti, infatti, si sono accorti che il chatbot rispondeva in modo fin troppo educato e accondiscendente. Per evitare incidenti di questo tipo, introdurrà una “fase alpha” opzionale per alcuni modelli che permetterebbe a un ristretto gruppo di utenti di testare i modelli e dare un feedback prima del lancio.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
15 mag 2025
Link copiato negli appunti