Allucinazioni di ChatGPT: denuncia per OpenAI

Allucinazioni di ChatGPT: denuncia per OpenAI

Un conduttore radiofonico ha denunciato OpenAI per diffamazione, in quanto ChatGPT ha fornito false informazioni ad un giornalista.
Allucinazioni di ChatGPT: denuncia per OpenAI
Un conduttore radiofonico ha denunciato OpenAI per diffamazione, in quanto ChatGPT ha fornito false informazioni ad un giornalista.

Mark Walters, conduttore radiofonico della Georgia, ha denunciato OpenAI per diffamazione. Il popolare ChatGPT ha fornito informazioni false ad un giornalista che aveva chiesto il riassunto di un caso giudiziario. Si tratta di un chiaro esempio di allucinazione, ovvero risposte completamente sbagliate da parte del chatbot. L’azienda californiana ha recentemente pubblicato una possibile soluzione al problema.

Denuncia per diffamazione contro OpenAI

Il giornalista Fred Riehl ha chiesto a ChatGPT di scrivere un riassunto delle accuse contenute in una denuncia, specificando il link al documento legale. La risposta fornita dal chatbot era completamente inventata. Nel riassunto era scritto che la denuncia è stata presentata dalla Second Amendment Foundation (SAF) contro Mark Walters, in quanto accusato di frode e appropriazione indebita di fondi.

Come specificato nella denuncia contro OpenAI, ChatGPT ha scritto che Walters, in qualità di tesoriere e Chief Financial Officer della SAF, ha sottratto fondi per uso personale e falsificato la contabilità per nascondere le sue attività. Per questo motivo è stato rimosso dal consiglio di amministrazione. Come ha confermato il fondatore e presidente della SAF, ChatGPT ha inventato tutto.

Le allucinazioni dei modelli IA sono piuttosto frequenti. Dopo il login, OpenAI avverte l’utente che ChatGPT potrebbe fornire informazioni sbagliate. Anche un avvocato ha scoperto a proprie spese che il chatbot può fornire risposte completamente false. Walters ha chiesto a OpenAI un risarcimento danni, oltre alle spese legali.

Ci sono però due stranezze. Il giornalista non ha mai pubblicato online la risposta di ChatGPT, quindi non è chiaro chi ha informato Walters. Inoltre, il chatbot non può accedere a fonti esterne. Quando viene inserito un link, ChatGPT risponde che non può accedere o aprire file PDF o altri documenti.

Fonte: The Register
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 9 giu 2023
Link copiato negli appunti