Le cinque leggi dall'AI di Google

Le cinque leggi dall'AI di Google

Mountain View gioca ancora ai confini della narrativa pensando a un modo per affrontare i potenziali rischi per la società scaturiti dall'intelligenza artificiale sul. Nulla di particolarmente inquietante, ma tanti vasi rotti
Mountain View gioca ancora ai confini della narrativa pensando a un modo per affrontare i potenziali rischi per la società scaturiti dall'intelligenza artificiale sul. Nulla di particolarmente inquietante, ma tanti vasi rotti

Dopo aver proposto l’introduzione di un “pulsante di spegnimento” per le intelligenze artificiali (IA) troppo avanzate e potenzialmente pericolose per l’uomo, i ricercatori di Google si sono ora occupati dei “problemi concreti” derivati dall’adozione diffusa delle IA prossime venture. Problemi che vengono descritti con termini non allarmistici in scenari del tutto mondani, e che apparentemente non lasciano spazio alla sindrome da Terminator.

Il nuovo studio di Dario Amodei e colleghi intende aprire la discussione sui possibili incidenti provocati dai sistemi automatizzati dotati di IA, dove la parola “incidenti” si traduce con comportamenti dannosi e non intenzionali che possono “emergere da un design mediocre dei sistemi IA del mondo reale.”

In particolare i ricercatori di Google sostengono di aver identificato cinque diversi scenari problematici in cui sarebbe opportuno condurre ulteriori ricerche, vale a dire la necessità di evitare effetti collaterali negativi (come assicurarsi che un robot delle pulizie non rompa un vaso per fare più in fretta), evitare il “reward hacking” (nascondendo ad esempio il disordine piuttosto che ripulire), supervisionare la capacità di apprendimento del robot (così che esso possa capire velocemente da solo dove trovare lo straccio piuttosto di chiederlo ogni volta), esplorare in sicurezza le possibili soluzioni (senza poggiare uno straccio bagnato sulla presa elettrica), e infine la capacità di capire da solo quando un certo ventaglio di abilità non è utile in un ambiente.

Più che alla possibile apocalisse scatenata da una Skynet autocosciente, insomma, Google dimostra di volersi occupare dei robot e delle applicazioni della IA negli scenari di manutenzione in cui questo genere di tecnologia farà prevedibilmente il suo debutto nel prossimo futuro. E in ogni caso per i Terminator ci sarà sempre il kill switch a impedire una catastrofe.

Alfonso Maruccia

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 23 giu 2016
Link copiato negli appunti