5000 dollari di multa agli avvocati che usarono ChatGPT

5000 dollari di multa agli avvocati che usarono ChatGPT

Confermata la sanzione nei confronti degli avvocati che hanno utilizzato ChatGPT per la stesura della documentazione risultata poi fasulla.
5000 dollari di multa agli avvocati che usarono ChatGPT
Confermata la sanzione nei confronti degli avvocati che hanno utilizzato ChatGPT per la stesura della documentazione risultata poi fasulla.

Un giudice statunitense ha comminato una sanzione da 5.000 dollari ai due avvocati (Steven Schwartz, Peter LoDuca) e allo studio legale (Levidow, Levidow & Oberman) che si sono affidati a ChatGPT per compilare la documentazione presentata in tribunale nel corso di un dibattimento. Una leggerezza, commessa con la sola finalità di risparmiare tempo.

ChatGPT utilizzato dagli avvocati: c’è la sanzione

I fatti citati dall’intelligenza artificiale, presunti eventi del passato inerenti alla tematica trattata, sono poi risultati completamente falsi, inventati. È l’effetto di ciò che in gergo è definito un’allucinazione. Della vicenda abbiamo scritto su queste pagine nelle scorse settimane.

Un esito piuttosto scontato del caso, ma che potrebbe costituire un precedente. Il giudice P. Kevin Castel, motivando la propria decisione, ha affermato che non vi è nulla di intrinsecamente improprio nel ricorrere all’impiego dell’IA in ambito legale, ma gli addetti ai lavori sono chiamati a verificare che le informazioni fornite siano accurate.

I progressi tecnologici sono all’ordine del giorno e non c’è nulla di intrinsecamente improprio nel farsi assistere da uno strumento di intelligenza artificiale. Le regole esistenti, però, impongono agli avvocati un ruolo di controllo, per garantire l’accuratezza dei documenti.

In altre parole, è stata riconosciuta la colpa di aver abbandonato le proprie responsabilità, non tanto per aver fatto ricorso a ChatGPT, ma per non aver controllato la veridicità di quanto prodotto dal chatbot.

Lo studio legale ha replicato al giudice, sottolineando come l’errore non sia stato commesso in malafede.

Il tema relativo alle allucinazioni dell’IA è oggetto di discussione. Si sono già verificate situazioni che hanno portato a denunciare OpenAI per le informazioni distorte o completamente fasulle, talvolta diffamanti o comunque non corrispondenti al vero, generate dal servizio. Non fatichiamo a immaginare che, in futuro, considerando l’impiego sempre più massiccio di questi strumenti, possano essere introdotte regole ad hoc.

Fonte: The Guardian
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
23 giu 2023
Link copiato negli appunti