OpenAI ha formato un nuovo team per la sicurezza, guidato dall’amministratore delegato Sam Altman e dai membri del consiglio di amministrazione Adam D’Angelo e Nicole Seligman. Avrà il compito di formulare raccomandazioni e linee guida su decisioni cruciali riguardanti la sicurezza e la protezione da potenziali abusi per i progetti e le operazioni di OpenAI.
La decisione di creare questo team dedicato arriva in un momento delicato per OpenAI, dopo che alcuni ricercatori chiave hanno lasciato l’azienda proprio per divergenze legate a preoccupazioni sulla sicurezza della tecnologia sviluppata. La presenza di ben tre membri del CdA all’interno del team solleva però alcuni dubbi sull’effettiva indipendenza e imparzialità di questo organismo, visto il potenziale conflitto di interessi con le priorità business dell’azienda.
Compiti e responsabilità del nuovo team di sicurezza
Come primo incarico, il nuovo team valuterà e svilupperà ulteriormente i processi e le misure di sicurezza di OpenAI. In seguito, presenterà i risultati al consiglio di amministrazione dell’azienda, di cui fanno parte tutti e tre i leader del team di sicurezza. Sarà poi il consiglio a decidere come implementare le raccomandazioni del team.
La formazione del nuovo team di sicurezza segue le dimissioni di alcuni importanti membri di OpenAI, tra cui il cofondatore e scienziato capo Ilya Sutskever e Jan Leike, co-leader del team Superalignment. Entrambi hanno espresso preoccupazioni riguardo alla scarsa priorità che l’azienda stava dando agli aspetti di sicurezza nello sviluppo dell’intelligenza artificiale. Sutskever e Leike ritenevano che i vertici di OpenAI non stessero prestando sufficiente attenzione ai potenziali rischi e pericoli legati ad un’AI altamente avanzata. In seguito a queste partenze, il team Superalignment è stato sciolto.
La settimana scorsa, anche la ricercatrice sulle politiche di OpenAI Gretchen Krueger ha annunciato le sue dimissioni, citando analoghe preoccupazioni sulla sicurezza. La creazione del nuovo team sulla sicurezza sembra quindi una risposta dell’azienda alle critiche sollevate dagli ex dipendenti.
Nuovi sviluppi e controversie
Oltre all’annuncio del nuovo consiglio di sicurezza, OpenAI sta testando un nuovo modello di intelligenza artificiale, anche se non è stato confermato se si tratti di GPT-5. L’azienda ha anche presentato una nuova voce per ChatGPT, chiamata Sky, che ha suscitato polemiche per la sua somiglianza con la voce dell’attrice Scarlett Johansson, la quale ha dichiarato di aver rifiutato l’offerta di fornire la propria voce per il chatbot.
Composizione del nuovo team di sicurezza
Il nuovo team di sicurezza di OpenAI include, oltre a Sam Altman e ai membri del consiglio di amministrazione Adam D’Angelo e Nicole Seligman, anche il responsabile della preparazione Aleksander Madry, il responsabile della sicurezza Lilian Weng, il responsabile della scienza dell’allineamento John Schulman, il responsabile della sicurezza Matt Knight e lo scienziato capo Jakub Pachocki. Tuttavia, con due membri del consiglio di amministrazione e dello stesso Altman a capo del nuovo consiglio di sicurezza, non sembra che OpenAI stia effettivamente affrontando le preoccupazioni dei suoi ex lavoratori.