Superalignment: così OpenAI ci salverà dalla sua superintelligenza

Superalignment: così OpenAI ci salverà dalla sua superintelligenza

Con la creazione del nuovo team battezzato Superalignment, OpenAI vuol proteggerci dalla superintelligenza che sta contribuendo a creare.
Superalignment: così OpenAI ci salverà dalla sua superintelligenza
Con la creazione del nuovo team battezzato Superalignment, OpenAI vuol proteggerci dalla superintelligenza che sta contribuendo a creare.

Il team di OpenAI ritiene che, già entro la fine di questo decennio, potremmo assistere al debutto di ciò che è definito come una superintelligenza ovvero la tecnologia più impattante che il genere umano abbia mai inventato. Una categoria di IA molto più voluta rispetto a quelle attuali. Per questo, per gestirne (o meglio per prevenirne) i rischi connessi, ha dato vita a una nuova squadra interna battezzata Superalignment.

Gli obiettivi del team OpenAI Superalignment

L’obiettivo dichiarato è dunque quello di scongiurare gli scenari più nefasti. Non si tratterebbe di una prospettiva ispirata a qualche opera sci-fi, ma a una possibilità concreta, come sottolineato nel documento del Center for AI Safety pubblicato a fine maggio e sottoscritto, tra gli altri, dal CEO Sam Altman.

Superalignment lavorerà proprio a tale scopo. Formato da ricercatori e ingegneri esperti nell’ambito del machine learning, avrà a disposizione il 20% della potenza di calcolo attualmente nelle mani di OpenAI. L’orizzonte temporale fissato per far fronte alle sfide più impellenti è pari a quattro anni.

… il vasto potere della superintelligenza potrebbe anche essere molto pericoloso e condurre a togliere potere all’umanità o addirittura all’estinzione del genere umano.

La stessa organizzazione che ha contribuito in modo decisivo ad accelerare lo sviluppo delle soluzioni di intelligenza artificiale (creando aspettative e attraendo investimento con il lancio dei modelli GPT e di ChatGPT) oggi mette le mani avanti, affermando di non esser certa di poter centrare l’obiettivo.

Nonostante questo sia un traguardo incredibilmente ambizioso e non è garantito il nostro successo, siamo ottimisti che uno sforzo mirato e concertato possa risolvere questo problema.

I primi esperimenti condotti sembrano aver restituito esiti incoraggianti. Costituisce ad ogni modo uno spunto di riflessione il fatto che, attraverso l’istituzione del nuovo team battezzato Superalignment, OpenAI stia affermando di volerci proteggere da quella stessa superintelligenza che sta prendendo vita nei suoi stessi laboratori.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 lug 2023
Link copiato negli appunti