AI Overview di Google dà risposte sbagliate e pericolose

AI Overview di Google dà risposte sbagliate e pericolose

AI Overview di Google utilizza l'AI per rispondere alle domande degli utenti, ma troppo spesso fornisce informazioni fuorvianti o pericolose.
AI Overview di Google dà risposte sbagliate e pericolose
AI Overview di Google utilizza l'AI per rispondere alle domande degli utenti, ma troppo spesso fornisce informazioni fuorvianti o pericolose.

Google ha recentemente lanciato una nuova funzione chiamata AI Overview, che utilizza l’intelligenza artificiale per scandagliare il web e generare risposte alle domande degli utenti. Tuttavia, nonostante le promesse di innovazione e miglioramento della ricerca, questa funzione ha dimostrato di essere ancora lontana dalla perfezione, producendo risposte errate e talvolta assurde.

Come promemoria, AI Overview di Google utilizza l’AI per produrre brevi sintesi e riassunti informativi in risposta alle query degli utenti. Questi contenuti sono generati Gemini, quindi l’utente non ha più la necessità di cliccare sui link mostrati nella SERP (pagina dei risultati di ricerca). L’obiettivo è quello di fornire agli utenti le informazioni cercate direttamente nei risultati di ricerca, senza dover accedere alle singole pagine web collegate.

Esempi di errori e allucinazioni dell’AI

Uno degli esempi più eclatanti di errore dell’AI Overview di Google, come sperimentato da The Verge,  riguarda una domanda sulla pizza. Alla richiesta di una soluzione per evitare che il formaggio si stacchi dalla pizza appena sfornata, l’intelligenza artificiale ha suggerito di aggiungere colla Elmer alla salsa, basandosi su un commento ironico di un utente di Reddit di oltre dieci anni fa.

La nuova funzione inoltre, sostiene che l’ex presidente degli Stati Uniti James Madison si sia laureato all’Università del Wisconsin ben 21 volte, che un cane abbia giocato in NBA, NFL e NHL, e che Batman sia un poliziotto… Questi esempi dimostrano che AI Overview non è ancora in grado di fornire informazioni accurate su larga scala.

Il problema delle allucinazioni dell’AI

Il problema delle allucinazioni e degli errori dell’intelligenza artificiale non riguarda solo Google, ma anche altre aziende come OpenAI, Meta e Perplexity. Tuttavia, Google è la prima a implementare questa tecnologia su così vasta scala, rendendo gli errori più evidenti e problematici per gli utenti.

Le aziende che sviluppano l’intelligenza artificiale spesso evitano di assumersi la responsabilità dei loro sistemi, sostenendo di non poter prevedere cosa l’AI genererà. Questo approccio, però, non risolve il problema per gli utenti, che si ritrovano con risultati di ricerca meno affidabili di prima (che è tutto dire…).

Il futuro dell’AI nella ricerca

Nonostante i progressi compiuti finora, concentrarsi su un futuro idealizzato in cui queste tecnologie sono impeccabili rischia di ignorare i problemi significativi che devono affrontare attualmente. Molti idealisti credono che siamo sull’orlo di qualcosa di grandioso e che questi problemi siano semplicemente i dolori della crescita di una tecnologia nascente. Tuttavia, per ora, le esperienze di ricerca degli utenti sono inficiate da informazioni errate e obsolete, nel tentativo di incorporare l’intelligenza artificiale in ogni aspetto della nostra vita.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 mag 2024
Link copiato negli appunti