Facebook: quando una IA è poco intelligente

Facebook: quando una IA è poco intelligente

L'intelligenza artificiale di Facebook ha identificato come primate una persona di colore presente in un video pubblicato sul social network.
Facebook: quando una IA è poco intelligente
L'intelligenza artificiale di Facebook ha identificato come primate una persona di colore presente in un video pubblicato sul social network.

Facebook utilizza l’intelligenza artificiale per varie funzionalità, una delle quali è il riconoscimento automatico delle persone nei video che viene sfruttato dall’algoritmo dei suggerimenti. Quanto accaduto pochi giorni fa dimostra che la tecnologia non è per nulla affidabile. L’azienda di Menlo Park ha temporaneamente disattivato la funzionalità per trovare la causa del problema.

La IA di Facebook è poco intelligente

Alcuni utenti stavano guardano un video pubblicato dal Daily Mail sul social network. Il protagonista del video è un uomo di colore. Ad un certo punto nel post è apparso il messaggio “Keep seeing video about Primates?“. L’intelligenza artificiale di Facebook ha quindi dedotto che l’uomo di colore nel video era un primate. Dopo aver ricevuto varie segnalazioni, l’azienda di Menlo Park ha disattivato i suggerimenti per i video.

Facebook IA fail

Un portavoce di Facebook ha dichiarato:

Questo è stato chiaramente un errore inaccettabile. Stiamo indagando sulla causa per evitare che ciò si ripeta. Anche se abbiamo apportato miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e abbiamo ulteriori progressi da fare. Ci scusiamo con chiunque abbia visto questi suggerimenti offensivi.

Quando accaduto evidenzia per l’ennesima volta uno dei limiti dell’intelligenza artificiale. Nonostante il sistema venga “addestrato” con migliaia di immagini, il riconoscimento facciale fornisce spesso risultati sbagliati. Ciò si verifica soprattutto con le persone di colore. L’anno scorso un uomo innocente è stato addirittura arrestato a causa di un errore della tecnologia.

Un simile problema si è verificato anche con Google Foto. Nel 2015 due persone di colore era state etichettate come gorilla. L’inaffidabilità dell’intelligenza artificiale può avere conseguenze gravi sulla vita reale. Ecco perché la Commissione europea vuole regolamentare il suo utilizzo. Il Garante europeo ha chiesto invece il ban del riconoscimento facciale.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 set 2021
Link copiato negli appunti