
Image by Sue Winston, from Unsplash
Il Tribunale del Regno Unito avverte gli avvocati: citazioni false di AI potrebbero portare a accuse penali
L’Alta Corte di Inghilterra e Galles ha lanciato un severo monito agli avvocati, indicando che devono astenersi dall’usare false informazioni legali prodotte da strumenti di intelligenza artificiale come ChatGPT, perché rischiano di affrontare sanzioni penali.
Hai fretta? Ecco i fatti essenziali:
- Il tribunale britannico mette in guardia gli avvocati sulle possibili accuse penali per citazioni generate da intelligenza artificiale false.
- Le citazioni di casi create da IA utilizzate in una causa da 89 milioni di sterline erano prive di fondamento fattuale.
- Un avvocato si è auto-denunciato dopo aver presentato 18 casi falsi mescolati con citazioni autentiche.
L’avvertimento è diventato necessario dopo due recenti procedimenti legali. L’uomo che ha intrapreso una causa legale da 89 milioni di sterline contro due banche ha creato citazioni legali basate sull’intelligenza artificiale, come riportato da The New York Times.
Tra i 45 riferimenti ai casi presentati, diciotto non avevano assolutamente nessuna base fattuale. The Guardian ha riportato che l’avvocato ha fornito citazioni reali, tuttavia sia i riferimenti autentici che quelli falsi non sono riusciti a stabilire connessioni valide con il caso.
L’avvocato si è preso la responsabilità per la sua negligenza nelle citazioni prima di segnalare se stesso all’organo di controllo.
Il Haringey Law Centre ha presentato una causa contro il consiglio del borough di Londra a causa della loro controversia abitativa. L’avvocato ha presentato in tribunale cinque casi precedenti completamente falsificati. Il tribunale ha stabilito che era responsabile per la creazione di spese legali inutili, secondo The Guardian.
Sebbene abbia negato di aver utilizzato direttamente l’IA, ha ammesso che avrebbe potuto “effettuare ricerche su Google o Safari” e aver confidato inconsapevolmente in riassunti generati da IA, come riportato da The Times.
La giudice Victoria Sharp, presidente della Divisione del Banco del Re, ha dichiarato, “Ci sono gravi implicazioni per l’amministrazione della giustizia e la fiducia del pubblico nel sistema giudiziario se l’intelligenza artificiale viene utilizzata in modo improprio”, come riportato dal The Times. Ha avvertito che gli avvocati rischiano accuse penali o di essere esclusi dall’esercizio della professione legale.
La sentenza ha aggiunto che gli strumenti di AI “possono produrre risposte apparentemente coerenti e plausibili… [ma] possono fare affermazioni sicure che sono semplicemente false”, come riportato dal The Times. Ian Jeffery della Law Society ha sostenuto la sentenza, dicendo che “mette a nudo i pericoli dell’uso dell’AI nel lavoro legale”, come riportato dal The Guardian.
La corte ha esortato i leader legali a formare urgentemente il personale su come utilizzare in modo responsabile l’IA, nota per “allucinare” le informazioni.
L’uso incontrollato dell’IA ha già causato problemi simili in tutto gli Stati Uniti, così come in Australia e in Europa, generando così una diffusa preoccupazione tra i professionisti del diritto.
Un giudice statunitense ha inflitto a due studi legali una multa di 31.000 dollari per aver utilizzato l’IA per creare memoriale giudiziario artificiale che includeva citazioni legali fabbricate. Il documento giudiziario relativo a State Farm includeva false referenze giudiziarie, che gli avvocati di entrambi gli studi hanno trascurato di verificare.
Il giudice Michael Wilner ha espresso la sua delusione nei confronti degli avvocati per non aver verificato i contenuti generati dall’IA, il che ha quasi portato all’inclusione di informazioni ingannevoli in un ordine del tribunale.