L'unico esperto AI di Musk al processo avverte sui pericoli dell'AGI

L'unico esperto AI di Musk al processo avverte sui pericoli dell'AGI

Stuart Russell testimonia al processo Musk vs OpenAI sui rischi dell'AGI e della corsa agli armamenti tra laboratori AI.
L'unico esperto AI di Musk al processo avverte sui pericoli dell'AGI
Stuart Russell testimonia al processo Musk vs OpenAI sui rischi dell'AGI e della corsa agli armamenti tra laboratori AI.

Stuart Russell, professore di informatica a Berkeley, nonché studioso di AI da decenni, e firmatario della lettera che chiedeva una pausa di sei mesi nella ricerca AI, è salito sul banco dei testimoni come unico esperto tecnologico della difesa di Musk nel processo contro OpenAI.

Il suo compito: convincere la giuria che l’intelligenza artificiale è abbastanza pericolosa da giustificare le preoccupazioni di Musk sulla trasformazione di OpenAI in un’entità a scopo di lucro. Il bello è che anche Musk ha firmato quella stessa lettera sulla pausa nella ricerca AI, mentre stava lanciando xAI, il proprio laboratorio AI a scopo di lucro.

Il testimone di Musk al processo OpenAI teme una corsa agli armamenti per l’AGI

Russell ha spiegato alla giuria e alla giudice Gonzalez Rogers che lo sviluppo dell’intelligenza artificiale comporta diversi rischi, dalla sicurezza informatica ai problemi di controllo dei sistemi, fino a una competizione che tende a concentrare tutto il potere nelle mani di pochi. Il nodo centrale, secondo Russell, è lo scontro tra la corsa al progresso e le garanzie di sicurezza.

In aula, Russell non ha potuto parlare dei rischi più estremi (quelli che riguardano possibili minacce all’esistenza umana), perché gli avvocati di OpenAI hanno chiesto e ottenuto dalla giudice di limitare ciò su cui poteva testimoniare.

Ma da tempo Russel è critico verso la competizione tra le aziende più avanzate nello sviluppo dell’intelligenza artificiale, che cercano di arrivare per prime a sistemi molto potenti. Secondo lui, la pressione a essere i primi rischia di far passare in secondo piano la sicurezza. Per questo chiede ai governi regole più rigorose.

Gli avvocati di OpenAI nel controinterrogatorio hanno stabilito che Russell non stava valutando direttamente la struttura societaria di OpenAI, né le sue policy specifiche sulla sicurezza.

La contraddizione evidente

I fondatori di OpenAI temevano che un’intelligenza artificiale molto avanzata finisse nelle mani di una sola azienda, con troppo potere. Per evitarlo, volevano svilupparla loro in modo “controllato”. Ma presto si sono resi conto che servivano enormi risorse di calcolo, quindi moltissimi soldi.

Una struttura no-profit non bastava più a sostenere quei costi. Sono arrivati gli investitori privati, e con loro la natura dell’organizzazione è cambiata. Il capitale porta aspettative, le aspettative portano pressione a crescere in fretta, e così OpenAI è entrata nella stessa corsa che diceva di voler evitare.

Il fatto è che sia Musk che OpenAI chiedono al tribunale di prendere sul serio una parte degli argomenti, ma di scartare le parti meno utili alla propria tesi legale… Una situazione che ha il sapore amaro di una disputa in cui nessuno dei due contendenti ha le mani completamente pulite.

Fonte: Tech Crunch
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
5 mag 2026
Link copiato negli appunti