Inteligenta artificială induce în eroare sistemul de justiție: Avocat se confruntă cu consecințe grave după ce folosește citate generate de AI

Un avocat australian a fost nevoit să-și ceară scuze publice după ce a prezentat unui tribunal citate juridice false, generate integral de un algoritm de inteligență artificială. Incidentul a avut loc în cadrul unui proces pentru crimă, unde instrumentele digitale au produs referințe inventate, inclusiv decizii judecătorești inexistente.

Rishi Nathwani, avocatul în cauză, deținător al titlului prestigios de King’s Counsel, și-a asumat întreaga responsabilitate pentru prezentarea de informații eronate. El a declarat că își exprimă regretul profund și jenă față de instanță. Memoriile depuse conțineau citate fictive atribuite unor discursuri parlamentare și unor precedente judiciare inventate.

Erorile au fost sesizate de către echipa juridică a tribunalului, care a constatat imposibilitatea identificării surselor menționate. Avocații apărării au recunoscut ulterior că nu au verificat suplimentar exactitatea materialelor, presupunând în mod eronat că toate citatele erau corecte.

Ca urmare, soluționarea cauzei a fost amânată cu o zi, iar judecătorul a evidențiat pericolul pe care il prezintă utilizarea necontrolată a tehnologiei în justiție. Curtea Supremă a statului Victoria a emis anul trecut recomandări specifice privind verificarea independentă a oricărui conținut produs cu ajutorul inteligenței artificiale.

Acest caz se alătură unor precedente internaționale. În Statele Unite, de exemplu, doi avocați au fost amendați pentru prezentarea unor referințe inventate de ChatGPT, iar în Marea Britanie, instanțele au emis avertismente cu privire la riscurile de a perturba seriașitatea actului de justiție.

Judecătorii avertizează că încrederea publică în sistemul juridic poate fi subminată atunci când tehnologia este utilizată fără verificări adecvate. Apelul la instrumente automate în elaborarea materialelor juridice necesită, în mod esențial, o supraveghere umană riguroasă.