Google è riuscita a rovinare il Black History Month (il mese della storia dei neri) in modo spettacolare… ha inviato una notifica push generata dall’intelligenza artificiale con uno degli insulti razzisti più gravi della lingua inglese.
Big G ha mandato agli utenti una notifica generata dall’AI con un insulto razzista pesantissimo: la N-word. Per chi fosse curioso, è “slur”, usata storicamente per insultare le persone di origini africane. Secondo Deadline, la notifica linkava a un articolo di The Hollywood Reporter su un episodio accaduto ai BAFTA, e l’insulto compariva nel testo di anteprima sotto il collegamento.
L’ironia amara di ricevere un insulto razzista automatizzato proprio durante il mese dedicato alla storia afroamericana non ha bisogno di ulteriori commenti… Naturalmente, Google si è scusata, ha rimosso la notifica e ha promesso che non accadrà più.
Cosa era successo ai BAFTA?
L’articolo riportava un episodio accaduto ai BAFTA. Mentre Michael B. Jordan e Delroy Lindo stavano salendo sul palco per consegnare un premio, qualcuno tra il pubblico ha gridato un insulto razzista. Si trattava di John Davidson, un attivista con la sindrome di Tourette. Davidson si è scusato subito dopo: Sono profondamente mortificato se qualcuno ha interpretato i miei tic involontari come intenzionali o con un qualche significato
.
L’AI di Google, evidentemente, ha pescato il termine dall’articolo e lo ha piazzato nella notifica senza nessun filtro. Un sistema che genera avvisi di notizia destinati a milioni di utenti e non è in grado di riconoscere che certe parole non vanno mai riportate in un messaggio push, per nessun motivo al mondo.
Le notifiche AI hanno un problema cronico
Non è la prima volta che l’intelligenza artificiale fa disastri di questo tipo. Apple l’anno scorso ha addirittura eliminato del tutto le sue notifiche AI dopo una serie di errori imbarazzanti, tra cui un avviso che comunicava per errore ai lettori che Luigi Mangione, l’uomo accusato dell’omicidio del CEO di UnitedHealthcare Brian Thompson, si fosse sparato.
Lo schema tanto è sempre lo stesso: le aziende lanciano sistemi automatizzati per generare contenuti che raggiungono milioni di persone, senza investire abbastanza nei filtri che impediscono ai contenuti più problematici di passare. Poi si scusano, promettono che non succederà più e aspettano il prossimo incidente…