Avvocato cita fonte inesistente di Claude, Anthropic si scusa

Avvocato cita fonte inesistente di Claude, Anthropic si scusa

In una causa legale, un avvocato di Anthropic ha erroneamente citato una fonte inesistente generata dal chatbot Claude, e ha dovuto scusarsi.
Avvocato cita fonte inesistente di Claude, Anthropic si scusa
In una causa legale, un avvocato di Anthropic ha erroneamente citato una fonte inesistente generata dal chatbot Claude, e ha dovuto scusarsi.

Quando l’AI cita fonti inventate di sana pianta, è un bel problema. E la beffa non risparmia nemmeno chi li sviluppa questi sistemi… Anthropic si è trovata in una posizione imbarazzante in tribunale quando è emerso che Claude aveva inventato riferimenti inesistenti. Un autogol clamoroso.

Avvocato di Anthropic cita fonte fasulla di Claude e finisce nei guai

Stando a un documento depositato presso un tribunale della California settentrionale, un avvocato di Anthropic ha ammesso di aver citato una fonte inesistente generata da Claude in una testimonianza. Il chatbot ha lavorato di fantasia, inventando anche titolo e autori. Un errore che i legali dell’azienda non sono riusciti a intercettare, nonostante il controllo manuale delle citazioni.

La svista però, non è passata inosservata agli avvocati di Universal Music Group e delle altre case discografiche coinvolte nella causa. Secondo loro, l’avvocato di Anthropic avrebbe utilizzato Claude per citare articoli inesistenti nella sua deposizione. Di fronte a queste accuse, la giudice federale Susan van Keulen ha chiesto ad Anthropic di chiarire l’accaduto. L’azienda si è scusata per l’errore, ma ha sottolineato che non c’era alcuna intenzione di ingannare la corte. Si è trattato solo di un semplice sbaglio nella citazione, non una falsificazione deliberata di fonti.

AI nelle aule di tribunale, si o no?

Quello di Anthropic non è un caso isolato. Sempre questa settimana, un giudice californiano ha bacchettato due studi legali per aver presentato in aula delle ricerche fasulle generate dall’AI. A gennaio, un avvocato australiano è stato beccato a usare ChatGPT per preparare documenti legali, salvo poi ritrovarsi, anche questa volta, con citazioni credibili sì, ma inventate.

Purtroppo, errare è umano e i chatbot AI, nutriti di dataset che contengono anche errori (umani), non possono che ereditare e talvolta amplificare questi difetti.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 mag 2025
Link copiato negli appunti