OpenAI: il ritorno di Sam Altman non basta a risolvere i problemi

OpenAI: il ritorno di Sam Altman non basta a risolvere i problemi

Dopo il ritorno di Altman, il consiglio di OpenAI ha subito una profonda trasformazione. Ora si apre la fase più delicata e impegnativa.
OpenAI: il ritorno di Sam Altman non basta a risolvere i problemi
Dopo il ritorno di Altman, il consiglio di OpenAI ha subito una profonda trasformazione. Ora si apre la fase più delicata e impegnativa.

OpenAI, la famosa azienda di intelligenza artificiale, ha vissuto giorni di tensione e di conflitto interno dopo il licenziamento del suo co-fondatore Sam Altman. Dopo una lunga trattativa, Altman è stato reintegrato, ma il suo ruolo e la sua visione sono ancora in discussione. Cosa significa questo per il futuro di OpenAI e della sua missione?

La struttura originale di OpenAI e i suoi problemi

OpenAI è nata come un’organizzazione non profit, con l’obiettivo di creare un’intelligenza artificiale generale che fosse di beneficio a tutta l’umanità. I co-fondatori dell’azienda, tra cui Altman, hanno stabilito una struttura particolare, in cui una parte for-profit era controllata da una parte non profit, con un consiglio di amministrazione che aveva il potere di decidere le attività, gli investimenti e la direzione generale dell’azienda.

Il consiglio di amministrazione era composto da sei persone: Altman, il capo scienziato Ilya Sutskever, il presidente Greg Brockman, l’imprenditrice tecnologica Tasha McCauley, l’amministratore delegato di Quora Adam D’Angelo e Helen Toner, direttrice del Centro per la sicurezza e le tecnologie emergenti di Georgetown. Il consiglio di amministrazione era vincolato da un atto costitutivo molto sintetico (500 parole), che gli imponeva di prendere decisioni volte a fare in modo che l’intelligenza artificiale generale fosse a vantaggio di tutta l’umanità, senza specificare come farlo. Nell’atto costitutivo non si parlava di “profitto” o di “entrate”; Toner avrebbe detto al team esecutivo di Altman che il fallimento di OpenAI “sarebbe in realtà coerente con la missione [della no-profit]”.

Questa struttura ha funzionato per alcuni anni, ma ha iniziato a mostrare le sue crepe quando OpenAI ha coinvolto investitori e partner potenti, che avevano interessi e aspettative diversi.

La crisi e il ritorno di Altman

La crisi di OpenAI è esplosa venerdì scorso, quando il consiglio di amministrazione ha licenziato Altman, accusandolo di “non essere sempre sincero” con i membri del consiglio e di aver privilegiato la crescita alla missione. Per esempio, Altman avrebbe criticato Toner per un documento di cui era coautrice e che metteva in luce l’approccio di OpenAI alla sicurezza, cercando di farla uscire dal consiglio. Inoltre, Altman avrebbe fatto “infuriare” Sutskever accelerando il lancio di funzionalità basate sull’intelligenza artificiale alla prima conferenza degli sviluppatori di OpenAI.

Altman non si è arreso e ha iniziato una battaglia legale e mediatica per riprendere il controllo di OpenAI. Ha chiesto la sostituzione del consiglio di amministrazione, la modifica della struttura di OpenAI e la rimozione del tetto ai profitti degli investitori. Ha ricevuto il sostegno di Brockman, che si è dimesso in segno di protesta, e di altri sostenitori influenti, come l’amministratore delegato di Salesforce Marc Benioff.

Dopo diversi giorni di negoziati, è stata raggiunta una soluzione temporanea. Altman è tornato al timone, ma dovrà sottoporsi a un’indagine approfondita sui problemi che hanno portato alla sua rimozione. OpenAI ha un nuovo consiglio di amministrazione di transizione, che soddisfa una delle richieste di Altman. OpenAI manterrà la sua struttura, con un tetto ai profitti degli investitori e con il consiglio di amministrazione libero di prendere decisioni che non siano orientate ai ricavi.

Benioff ha scritto su X che “i buoni” hanno vinto. Ma forse è troppo presto per dirlo.

Le sfide future

Altman ha “vinto”, sconfiggendo un consiglio di amministrazione che lo aveva accusato di “non essere sempre sincero” con i membri del consiglio e, secondo alcuni rapporti, di aver anteposto la crescita alla missione. Ma il suo ritorno è giustificato? Il nuovo consiglio di amministrazione di OpenAI è meno diversificato (cioè è tutto bianco e maschile) e gli obiettivi filantropici della società potrebbero essere compromessi da interessi più capitalistici.

Questo non vuol dire che la vecchia OpenAI fosse perfetta. Forse la sua struttura era troppo idealista e vaga, e non era in grado di gestire le sfide e le pressioni di un settore competitivo e in rapida evoluzione. Forse il consiglio di amministrazione aveva perso di vista la visione originale di OpenAI e si era lasciato influenzare da fattori esterni.

Il futuro di OpenAI e della sua missione dipenderà da come il nuovo consiglio di amministrazione e il team esecutivo riusciranno a trovare un equilibrio tra crescita e impatto, tra innovazione e sicurezza, tra profitto e beneficio. Non sarà facile, ma sarà fondamentale per il destino dell’intelligenza artificiale e dell’umanità.

Il nuovo consiglio di amministrazione di OpenAI suscita critiche

Attualmente, il consiglio di amministrazione di OpenAI è composto da quattro membri: Bret Taylor, ex co-CEO di Salesforce e fondatore di diverse startup; Larry Summers, economista ed ex presidente di Harvard; Charles D’Angelo, co-fondatore di OpenAI e unico membro rimasto del consiglio originale; e Greg Brockman, CTO di OpenAI.

Il consiglio dovrebbe rappresentare una varietà di prospettive e competenze, ma alcuni esperti di intelligenza artificiale non sono soddisfatti della scelta. Il motivo principale è la mancanza di diversità: il consiglio è composto solo da uomini bianchi, in violazione delle norme europee che impongono una quota di genere del 40% nei consigli di amministrazione. Inoltre, alcuni membri del consiglio hanno sollevato polemiche in passato, come Summers, accusato di aver fatto commenti sessisti sulle donne.

Le sfide etiche e sociali dell’intelligenza artificiale

Lo sviluppo dell’intelligenza artificiale offre molte opportunità, ma comporta anche dei rischi e delle sfide, sia dal punto di vista tecnico che sociale. Può, infatti, avere impatti negativi sui mezzi di sussistenza, sulla privacy, sulla sicurezza, sulla giustizia e sull’equità delle persone.

Per affrontare queste sfide, è necessario che le società di AI adottino un approccio responsabile e inclusivo, coinvolgendo esperti di diverse discipline e provenienze. Un consiglio di amministrazione diversificato può contribuire a garantire una visione più ampia e una maggiore sensibilità alle questioni etiche e sociali.

Le possibilità di miglioramento di OpenAI

OpenAI ha dichiarato che il suo consiglio di amministrazione è ancora incompleto e che sono previsti altri sei posti da occupare. Questa è un’occasione per l’azienda di dimostrare il suo impegno per la diversità e l’inclusione, reclutando membri del consiglio che abbiano una profonda conoscenza dell’uso responsabile dell’IA nella società umana. Tra i possibili candidati, ci sono etici dell’IA di fama mondiale, come Timnit Gebru o Margaret Mitchell, che hanno lavorato su temi come i pregiudizi, la trasparenza e la responsabilità dell’intelligenza artificiale.

OpenAI ha la possibilità di essere un leader non solo nell’innovazione tecnologica, ma anche nella promozione di un’IA equa, sicura e davvero benefica per tutti. Per farlo, però, deve ascoltare le voci di chi ha esperienze e prospettive diverse, e riflettere questa diversità nel suo consiglio di amministrazione.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
23 nov 2023
Link copiato negli appunti