Gemini di Google fa il vago sulla politica

Gemini di Google fa il vago sulla politica

A differenza di altri chatbot AI, Gemini di Google spesso si rifiuta di rispondere a domande su elezioni e politica, mostrando cautela.
Gemini di Google fa il vago sulla politica
A differenza di altri chatbot AI, Gemini di Google spesso si rifiuta di rispondere a domande su elezioni e politica, mostrando cautela.

Gemini fa il reticente su elezioni e personaggi politici. Mentre i rivali di Google hanno aggiornato i loro chatbot per discutere di temi politici sensibili, il colosso di Mountain View ha mantenuto un approccio più cauto.

Perché Gemini evita di rispondere a domande sulla politica?

Se si prova a chiedere a Gemini di esprimersi su certi argomenti politici, la risposta sarà quasi sempre la stessa: “Mi dispiace, al momento non posso fornire risposte su elezioni e personaggi politici“. Con altri chatbot come Claude di Anthropic o ChatGPT di OpenAI, invece non accade. Anzi, affrontano senza troppi problemi gli stessi quesiti.

Ma perché Google ha scelto questa linea? Tutto è iniziato a marzo 2024, quando l’azienda ha annunciato che Gemini non avrebbe risposto a domande sulle elezioni in vista di alcune tornate elettorali negli Stati Uniti, in India e in altri Paesi. Una scelta precauzionale, adottata anche da altre aziende di AI, per evitare polemiche nel caso in cui i chatbot avessero fornito informazioni errate o fuorvianti.

Adesso però, con le elezioni ormai alle spalle, Google sembra essere l’unica a non aver cambiato rotta, né ha fatto annunci in merito. L’unica certezza al momento è che Gemini a volte fatica – o si rifiuta categoricamente – di rispondere, anche se si tratta di dati di fatto. Ad esempio, in un caso, Gemini si è riferito a Trump come “ex presidente” per poi rifiutarsi di rispondere a una richiesta di chiarimento. Secondo un portavoce di Google, il chatbot è confuso dai mandati non consecutivi di Trump, ma l’azienda sta lavorando per correggere l’errore.

In effetti, dopo la segnalazione dell’errore a Google, il chatbot ha iniziato a identificare correttamente Donald Trump e J. D. Vance come presidente e vicepresidente in carica.

La cautela di Google e i suoi limiti

Google sembra voler giocare sul sicuro limitando le risposte di Gemini alle domande politiche. Ma questo approccio ha anche i suoi lati negativi. Molti consiglieri di Trump, tra cui Marc Andreessen, David Sacks ed Elon Musk, hanno accusato aziende come Google e OpenAI di censurare i loro chatbot limitandone le risposte.

Ad esempio, OpenAI ha eliminato gli avvisi sui contenuti sensibili, impegnandosi a garantire che i suoi modelli AI non censurino certi punti di vista. Anche Anthropic ha dichiarato che il suo nuovo modello, Claude 3.7 Sonnet, si rifiuta di rispondere alle domande meno spesso rispetto ai modelli precedenti, in parte perché riesce a distinguere tra risposte dannose e innocue.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
5 mar 2025
Link copiato negli appunti