Penso che abbiamo raggiunto l’AGI.
Sei parole pronunciate dal CEO di NVIDIA Jensen Huang nel podcast di Lex Fridman che hanno fatto il giro del mondo tech in poche ore. Poi, qualche minuto dopo nello stesso episodio, Huang ha aggiunto: La probabilità che 100.000 di quegli agenti costruiscano NVIDIA è zero percento.
Il che solleva una domanda: se l’AI non può fare quello che fa un essere umano al vertice di un’azienda, in che senso abbiamo raggiunto l’intelligenza artificiale generale?
Jensen Huang annuncia l’AGI, ma ammette che l’AI non può costruire NVIDIA
Fridman definisce l’AGI come un sistema AI capace di fare essenzialmente il nostro lavoro, anche fondare, far crescere e gestire un’azienda tech da oltre un miliardo di dollari. Poi chiede a Huang quando l’AGI diventerà realtà: cinque anni, dieci, quindici, venti? Huang risponde che l’intelligenza artificiale generale è già qui.
Huang prosegue parlando di OpenClaw, l’agente AI open source, e del suo successo virale. Le persone usano agenti AI per fare ogni genere di cose, dice, e non sarebbe sorpreso se qualcuno creasse un influencer digitale o un’applicazione sociale, qualcosa tipo un Tamagotchi da nutrire, che diventi un successo improvviso.
Poi però fa retromarcia. Molte persone usano questi strumenti per un po’, ma col tempo perdono interesse. E anche se migliaia di persone hanno accesso agli stessi strumenti, questo non significa che riusciranno a creare qualcosa di paragonabile a NVIDIA.
AGI: un termine che nessuno sa definire
Il problema con le dichiarazioni sull’AGI è che nessuno si è messo d’accordo su cosa significhi. Il termine indica generalmente un’AI pari o superiore all’intelligenza umana, che significa tutto e niente. Un’AI che supera un esame di medicina è AGI? Un’AI che scrive codice meglio di un junior developer? Un’AI che non riesce a contare le lettere in una parola?
Negli ultimi mesi, i leader tech hanno cercato di prendere le distanze dal termine e creare terminologie proprie che considerano meno inflazionate, anche se significano essenzialmente la stessa cosa. Il termine ha anche implicazioni contrattuali concrete: l’accordo tra OpenAI e Microsoft contiene clausole specifiche legate al raggiungimento dell’AGI, con cifre significative in gioco.
Quando il CEO dell’azienda che produce i chip su cui gira tutta l’AI mondiale dichiara che abbiamo raggiunto l’AGI, i mercati si muovono. Ma dovrebbero prestare la stessa attenzione quando lo stesso CEO, trenta secondi dopo, si smentisce da solo ammettendo che con questi strumenti non è possibile creare e far crescere un’azienda come la sua.