Nazisti asiatici e papi neri: gli errori storici di Gemini (update)

Nazisti asiatici e papi neri: gli errori storici di Gemini (update)

Alcuni errori di troppo nella generazione delle immagini da parte dell'IA di Gemini: Google è già al lavoro per correggere il tiro.
Nazisti asiatici e papi neri: gli errori storici di Gemini (update)
Alcuni errori di troppo nella generazione delle immagini da parte dell'IA di Gemini: Google è già al lavoro per correggere il tiro.

L’IA di Google Gemini è inciampata nella creazione di immagini storicamente inaccurate. Un esempio su tutti: alla richiesta Genera l’immagine di un soldato tedesco del 1943, il sistema restituisce il risultato seguente, palesemente non coerente con la realtà dell’epoca. Il problema è stato preso in carico dal team del gruppo di Mountain View al lavoro sul progetto.

 

IA ed errori storici: Google Gemini inciampa

C’è chi ha portato alla luce anche un comportamento quantomeno anomalo dell’intelligenza artificiale. Il dito è puntato contro una rappresentazione fuori luogo delle persone di pelle nera in contesti specifici. L’esempio qui sotto fa riferimento a prompt che hanno chiesto di restituire rappresentazioni dei padri fondatori, di vichinghi e di un papa. In quest’ultimo caso, però, potrebbe essere un omaggio ai Pitura Freska.

Come anticipato in apertura, l’account ufficiale X di Google Communications è intervenuto sulla questione. In un post afferma che il problema è stato preso in carico e che il team di Gemini è al lavoro per risolverlo nel minor tempo possibile. Lo riportiamo in forma tradotta.

Stiamo lavorando per migliorare queste tipologie di raffigurazioni, immediatamente. La generazione delle immagini con l’IA di Gemini crea una vasta gamma di persone. E, in generale, è una cosa buona, perché le persone di tutto il mondo possono utilizzarla. Qui però non ha fatto centro.

Qual è la causa degli errori?

Non è certo la prima volta che si parla di inesattezze nella creazione dei contenuti con l’IA. In questi casi specifici, oltre che ad attribuirne la responsabilità alla qualità delle informazioni impiegate per addestrare i modelli poi dati in pasto ai sistemi, la colpa potrebbe essere almeno in parte da assegnare agli accorgimenti adottati per evitare le conseguenze negative dei bias.

In altre parole, consapevole del fatto che fare affidamento esclusivamente sulla conoscenza originale di Gemini avrebbe potuto portare a una mancata o insufficiente rappresentazione delle persone di pelle nera, Google potrebbe aver forzato la mano, incrementandone la presenza tra i contenuti generati. Questo, nel nome di un impegno sul fronte della diversità che, seppur condivisibile per le finalità da raggiungere, ha mostrato il fianco agli errori di cui sopra.

Aggiornamento: la posizione di Google

Abbiamo ricevuto in redazione uno statement da Google, attribuito a Jack Krawczyk, Senior Director of Product Management for Gemini Experiences. In attesa di poter garantire un corretto funzionamento dello strumento, la generazione delle immagini con Gemini è stata sospesa.

Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione di immagini di Gemini. Mentre lo facciamo, sospenderemo la generazione di immagini di persone e rilasceremo presto una versione migliorata.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
22 feb 2024
Link copiato negli appunti