OpenAI, fino 20.000 dollari di premio a chi trova bug in ChatGPT

OpenAI, fino 20.000 dollari di premio a chi trova bug in ChatGPT

OpenAI lancia il suo Bug Bounty Program: chiunque scoprirà bug o difetti di sicurezza riceverà fino a 20.000 dollari come premio.
OpenAI, fino 20.000 dollari di premio a chi trova bug in ChatGPT
OpenAI lancia il suo Bug Bounty Program: chiunque scoprirà bug o difetti di sicurezza riceverà fino a 20.000 dollari come premio.

La società di ricerca sull’intelligenza artificiale OpenAI ha annunciato oggi il lancio del Bug Bounty Program, piano che consente ai ricercatori di sicurezza registrati di ricevere premi importanti nel caso in cui scoprano vulnerabilità nella linea di prodotti della organizzazione no-profit. A seconda della gravità dei bug e dell’impatto dei problemi segnalati, essa garantisce premi tra 200 e 20.000 dollari.

Si apre la caccia ai bug su ChatGPT

Il programma in questione viene descritto da OpenAI come un modo per “riconoscere e premiare le preziose intuizioni dei ricercatori di sicurezza” che, con il loro duro lavoro e la loro passione, proteggono le tecnologie dell’azienda al fine di renderle più sicure a tutti, utenti in primis.

Scendendo nel dettaglio, OpenAI ha chiesto un approccio specifico per questo programma di caccia ai bug:

“I problemi di sicurezza di GPT non si adattano bene all’interno di un programma di bug bounty, in quanto non sono bug individuali e discreti che possono essere risolti direttamente. Affrontare questi problemi spesso richiede ricerche sostanziali e un approccio più ampio. Per garantire che queste preoccupazioni vengano affrontate correttamente, si prega di segnalarle utilizzando il modulo appropriato, anziché inviarle tramite il programma bug bounty. Segnalarle nel posto giusto consente ai nostri ricercatori di utilizzare queste segnalazioni per migliorare il modello.”

Altri problemi che non rientrano nel programma includono jailbreak e bypass di sicurezza che gli utenti di ChatGPT hanno sfruttato per indurre il chatbot di ChatGPT a ignorare le misure di sicurezza implementate dagli ingegneri di OpenAI.

Il team ha dunque concluso che la trasparenza e la collaborazione sono fattori cruciali nel progresso dell’intelligenza artificiale, ed è proprio per questa ragione che sta invitando ricercatori, hacker etici e appassionati di tecnologia a identificare le vulnerabilità.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 apr 2023
Link copiato negli appunti