Errori generati dall’IA nei documenti giudiziari portano a problemi legali per gli avvocati

Photo by Saúl Bucio on Unsplash

Errori generati dall’IA nei documenti giudiziari portano a problemi legali per gli avvocati

Tempo di lettura: 2 Min.

Un rapporto condiviso da Reuters ieri rivela che le allucinazioni dell’IA – errori e informazioni inventate create dai modelli generativi dell’IA – stanno causando problemi legali nei tribunali negli Stati Uniti.

Di fretta? Ecco i Fatti Essenziali!

  • Morgan & Morgan ha inviato un’email a 1.000 avvocati avvertendo sui rischi dell’IA.
  • Il recente caso degli avvocati di Walmart che ammettono di utilizzare l’IA per i loro casi ha sollevato allarmi nella comunità legale.
  • L’uso di allucinazioni di chatbot nelle dichiarazioni in tribunale è diventato un problema ricorrente negli ultimi anni.

Questo mese, lo studio legale Morgan & Morgan ha inviato un’email di avvertimento a oltre 1.000 avvocati riguardo i rischi dell’utilizzo di chatbot e casi falsi generati dall’intelligenza artificiale.

Qualche giorno fa, due avvocati del Wyoming hanno ammesso di aver incluso nei loro atti di citazione per una causa contro Walmart, dei casi fasulli generati da AI, e un giudice federale ha minacciato di sanzionarli.

A dicembre, il professore di Stanford e esperto di disinformazione Jeff Hancock è stato accusato di utilizzare l’AI per creare citazioni false di dichiarazioni giudiziarie come parte della sua difesa riguardo alla legge statale del 2023 che criminalizza l’uso di deepfake per influenzare le elezioni.

Diversi casi come questi, negli ultimi anni, hanno causato attriti legali e aggiunto problemi a giudici e litiganti. Morgan & Morgan e Walmart hanno rifiutato di commentare su questa questione.

L’IA generativa è stata di aiuto nel ridurre il tempo di ricerca per gli avvocati, ma le sue “allucinazioni” possono comportare costi significativi. L’anno scorso, un sondaggio di Thomson Reuters ha rivelato che il 63% degli avvocati utilizzava l’IA per il lavoro e il 12% lo faceva regolarmente.

L’anno scorso, l’American Bar Association ha ricordato ai suoi 400.000 membri le regole etiche degli avvocati, che includono l’obbligo per gli avvocati di sostenere tutte le informazioni contenute nei loro atti giudiziari, e ha sottolineato che ciò includeva anche le informazioni generate dall’IA, anche se era involontario, come nel caso di Hancock.

“Quando gli avvocati vengono scoperti ad utilizzare ChatGPT o qualsiasi altro strumento di IA generativo per creare citazioni senza verificarle, questa è incompetenza, pura e semplice,” ha dichiarato Andrew Perlman, preside della Facoltà di Giurisprudenza dell’Università di Suffolk a Reuters.

Qualche giorno fa, la BBC ha condiviso un rapporto che avverte riguardo le citazioni finte generate dall’IA e i problemi con gli strumenti di IA nel giornalismo.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...