I Nobel dell'informatica lanciano l'allarme sull'AI (di nuovo)

I Nobel dell'informatica lanciano l'allarme sull'AI (di nuovo)

I vincitori del Turing Award 2025, mettono in guardia dai rischi di rilasciare sistemi AI senza adeguati test di sicurezza.
I Nobel dell'informatica lanciano l'allarme sull'AI (di nuovo)
I vincitori del Turing Award 2025, mettono in guardia dai rischi di rilasciare sistemi AI senza adeguati test di sicurezza.

Andrew Barto e Richard Sutton, due mostri sacri dell’AI, hanno conquistato il premio Turing – il Nobel dell’informatica. Ma invece di stappare lo champagne e godersi gli applausi, hanno messo in guardia sui pericoli dei sistemi AI rilasciati troppo in fretta al pubblico.

“Le aziende non testano a fondo i prodotti AI”

Secondo Barto e Sutton, le società di AI non testano a sufficienza i loro prodotti prima di lanciarli sul mercato. “È come costruire un ponte e testarlo facendo passare la gente“, hanno dichiarato al Financial Times. Un paragone che rende bene l’idea e fa riflettere sulla corsa sfrenata allo sviluppo di modelli AI sempre più potenti.

Ma perché proprio Barto e Sutton sono così autorevoli sull’argomento? Perché sono i creatori del “reinforcement learning“, una tecnica di apprendimento automatico che addestra i sistemi di AI a prendere decisioni migliori attraverso prove ed errori.

Ma come dice Ben Parker, da grandi poteri, derivano grandi responsabilità. E secondo Barto, “rilasciare software a milioni di persone senza precauzioni non è una buona pratica ingegneristica“. I due pionieri dell’AI non sono le uniche voci autorevoli a lanciare l’allarme. Yoshua Bengio e Geoffrey Hinton, altri due padrini dell’AI e precedenti vincitori del premio Turing, hanno espresso critiche simili sullo sviluppo non sicuro dell’AI. E pensare che anche Sam Altman qualche anno fa era della stessa opinione…

Le aziende sono più interessate ai profitti che alla sicurezza

Barto ha anche puntato il dito contro le aziende di AI, accusandole di essere “motivate da incentivi commerciali“. Un’accusa che sembra calzare a pennello per OpenAI, che dopo aver fatto ripetute promesse di migliorare la sicurezza dell’AI e aver brevemente estromesso Altman per aver commercializzato troppo le novità prima di capirne le conseguenze, a dicembre ha annunciato i suoi piani per trasformarsi in un’azienda a scopo di lucro.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
5 mar 2025
Link copiato negli appunti