Il Giudice Multa gli Avvocati per l’Uso di Ricerche Legali Generate da un Falso IA

Image by Freepik

Il Giudice Multa gli Avvocati per l’Uso di Ricerche Legali Generate da un Falso IA

Tempo di lettura: 3 Min.

Un giudice statunitense ha duramente criticato due studi legali per aver incluso false informazioni legali generate da un’intelligenza artificiale in un atto giudiziario, definendolo un grave mancato adempimento di responsabilità legale.

Hai fretta? Ecco i fatti essenziali:

  • Un giudice ha multato due studi legali per 31.000 dollari per citazioni legali false generate da intelligenza artificiale.
  • Informazioni false sono state trovate in un memoriale presentato in un caso di State Farm.
  • Almeno due casi legali citati erano completamente inventati dall’intelligenza artificiale.

Il giudice Michael Wilner, con base in California, ha multato le aziende per $31,000 dopo aver scoperto che la relazione era piena di “citazioni e citazioni legali false, inaccurate e fuorvianti”, come riportato per la prima volta da WIRED.

“Nessun avvocato ragionevolmente competente dovrebbe esternalizzare la ricerca e la stesura” all’IA, ha scritto Wilner nella sua sentenza, avvertendo che era vicino a includere i casi falsi in un ordine giudiziario.

“Ho letto il loro memorandum, sono stato persuaso (o almeno incuriosito) dalle autorità che hanno citato, e ho cercato le decisioni per saperne di più – solo per scoprire che non esistevano”, ha detto, come riportato da WIRED. “È spaventoso”, ha aggiunto.

La situazione è sorta durante una causa civile contro State Farm. Un avvocato ha utilizzato strumenti di intelligenza artificiale per redigere una bozza legale. Tale documento, contenente ricerche false, è stato consegnato al più grande studio legale K&L Gates, che lo ha aggiunto a un deposito ufficiale.

“Nessun avvocato o membro dello staff di entrambi gli studi legali ha apparentemente controllato o revisionato quella ricerca prima di depositare la memoria”, ha notato Wilner, come riportato da WIRED.

Dopo aver scoperto che almeno due dei casi citati erano completamente inventati, il giudice Wilner ha chiesto chiarimenti a K&L Gates. Quando hanno presentato una nuova versione, si è scoperto che conteneva ancora più citazioni false. Il giudice ha richiesto una spiegazione, che ha rivelato dichiarazioni giurate che ammettevano l’uso di strumenti di intelligenza artificiale, come riportato da WIRED..

Wilner ha concluso: “L’uso iniziale, non divulgato, di prodotti di intelligenza artificiale per generare la prima bozza del documento era semplicemente sbagliato […] E inviare quel materiale ad altri avvocati senza rivelarne le discutibili origini AI ha realisticamente messo quei professionisti in pericolo,” come riportato da WIRED.

Questa non è la prima volta che l’IA ha causato problemi nei tribunali. Infatti, due avvocati del Wyoming hanno recentemente ammesso di aver utilizzato casi generati falsamente dall’IA in un atto processuale per una causa contro Walmart. Un giudice federale ha minacciato di sanzionarli per questo.

In questo scenario, le “allucinazioni” dell’IA — informazioni inventate generate dagli strumenti IA — stanno diventando una preoccupazione crescente nel sistema legale.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!