ChatGPT fornisce informazioni false in un documento legale
L’uso di ChatGPT e dell’intelligenza artificiale nel settore legale ha sollevato interrogativi sulla sua affidabilità e la necessità di una supervisione umana. Uno dei casi più recenti mette in luce la vicenda di un avvocato che ha utilizzato ChatGPT per raccogliere informazioni per un caso legale, ma si è trovato a fronteggiare conseguenze impreviste.
La sfida dell’utilizzo di ChatGPT nel settore legale
Il caso in questione coinvolge l’avvocato Steven Schwartz dello studio legale Levidow e Oberman. Schwartz ha deciso di utilizzare ChatGPT per condurre una ricerca approfondita su casi simili a quello del suo cliente, Roberto Mata. Il cliente aveva citato in giudizio la compagnia aerea colombiana Avianca in seguito ad una ferita al ginocchio causata da un carrello di servizio durante un volo di linea. Tuttavia, l’uso di ChatGPT ha portato a informazioni errate e inventate, che sono state presentate come evidenze nel caso legale.
L’utilizzo di ChatGPT in un caso legale
L’avvocato Steven Schwartz ha deciso di utilizzare ChatGPT per convincere il giudice federale a non archiviare il caso del suo cliente, Roberto Mata. Tuttavia, l’utilizzo di ChatGPT ha portato a risultati fuorvianti e conseguenze impreviste. Schwartz ha affidato a ChatGPT la ricerca di casi simili a quello del suo cliente. Utilizzando il chatbot, ha ottenuto un documento contenente una lista di presunti casi, tra cui “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”.
Nonostante l’avvocato avesse chiesto a ChatGPT se le informazioni fossero veritiere, il chatbot ha erroneamente confermato la loro autenticità, affermando che erano presenti in database legali affidabili come Westlaw e LexisNexis. Successivamente, l’avvocato della difesa ha effettuato una verifica accurata dei casi citati da ChatGPT. È emerso che nessuno di questi casi esisteva veramente. Ad esempio, il caso “Varghese v. China Southern Airlines Co” si è rivelato essere inesistente, nonostante facessero riferimento al caso reale di “Zicherman v. Korean Air Lines Co”.
Le conseguenze per l’avvocato
L’uso di informazioni inesatte nel processo legale ha seriamente compromesso la credibilità dell’avvocato Schwartz. La sua dichiarazione giurata, in cui affermava di aver chiesto a ChatGPT se stesse mentendo, non è stata sufficiente per mitigare le conseguenze legali delle informazioni false presentate in tribunale. L’avvocato potrebbe subire sanzioni e il caso di Mata potrebbe essere compromesso a causa dell’utilizzo errato dell’intelligenza artificiale. La responsabilità di quanto accaduto infatti è dell’avvocato, che non ha utilizzato correttamente le informazioni fornite da ChatGPT.
La presentazione di informazioni errate ha avuto conseguenze per l’avvocato Schwartz. È stato chiamato in causa dal giudice federale per la presentazione di prove fasulle. Nonostante le sue dichiarazioni di non conoscenza sulla possibilità che le informazioni fossero false, è stato giudicato colpevole.
L’importanza della supervisione umana nell’utilizzo di ChatGPT
La vicenda dell’avvocato Schwartz mette in evidenza l’importanza di una supervisione umana attenta e responsabile nell’utilizzo di ChatGPT. Questo vale soprattutto nel settore legale. L’intelligenza artificiale generativa può sicuramente essere un utile strumento per la ricerca e l’elaborazione delle informazioni. Ma è fondamentale che gli avvocati siano consapevoli delle limitazioni di queste tecnologie. I legali sono chiamati a utilizzare le informazioni in modo etico e responsabile. La supervisione umana rigorosa è fondamentale per evitare errori, informazioni false e conseguenze legali indesiderate.
La vicenda dell’avvocato Schwartz rappresenta un importante insegnamento sull’uso di ChatGPT nel settore legale. È cruciale che gli avvocati comprendano le limitazioni dell’intelligenza artificiale generativa e siano responsabili nell’utilizzo di tali strumenti. Ma questo vale in generale per tutti i settori che si avvalgono del supporto dell’intelligenza artificiale. Non dobbiamo dimenticare che l’intelligenza artificiale è solo un alleato prezioso, ma non può sostituire l’intelligenza umana. Questa vicenda dimostra che la guida e il controllo umano sono indispensabili per evitare qualsiasi spiacevole conseguenza.