
Photo by Saúl Bucio on Unsplash
Błędy generowane przez AI w dokumentach sądowych prowadzą do kłopotów prawnych dla prawników
Raport udostępniony wczoraj przez Reuters ujawnia, że halucynacje AI – błędy i wymyślone informacje tworzone przez generatywne modele AI – powodują problemy prawne na salach sądowych w Stanach Zjednoczonych.
W pośpiechu? Oto najważniejsze fakty!
- Morgan & Morgan wysłało e-mail do 1000 prawników, ostrzegając o ryzyku związanym z AI.
- Ostatni przypadek prawników Walmart, którzy przyznali się do korzystania z AI w swoich sprawach, wzbudził niepokój w środowisku prawniczym.
- Używanie halucynacji chatbota w oświadczeniach sądowych stało się powtarzającym się problemem w ostatnich latach.
W tym miesiącu, kancelaria prawna Morgan & Morgan wysłała e-mail z ostrzeżeniem do ponad 1000 prawników na temat ryzyka związanego z korzystaniem z chatbotów i fałszywych spraw generowanych przez sztuczną inteligencję.
Kilka dni temu, dwóch prawników z Wyoming przyznało, że dołączyli do pozwu przeciwko Walmart fałszywe dokumenty wygenerowane przez AI, a federalny sędzia zagroził im sankcjami.
W grudniu, profesor z Stanford i ekspert od dezinformacji, Jeff Hancock, został oskarżony o wykorzystanie AI do sfałszowania cytowań deklaracji sądowej jako części swojego oświadczenia w obronie ustawy stanu z 2023 roku, która kryminalizuje użycie tzw. deepfake’ów do manipulowania wyborami.
Wielokrotnie w ciągu ostatnich kilku lat, przypadki takie jak te generowały prawne napięcia i sprawiały kłopoty sędziom i stronom procesu. Morgan & Morgan oraz Walmart odmówili komentarza na ten temat.
Generująca AI przyczynia się do skrócenia czasu badawczego dla prawników, ale jej „halucynacje” mogą generować znaczne koszty. W zeszłym roku, badanie Thomson Reuters wykazało, że 63% prawników używało AI do pracy, a 12% robiło to regularnie.
W zeszłym roku, Amerykańskie Stowarzyszenie Adwokackie przypomniało swoim 400 000 członkom o zasadach etyki adwokackiej, które obejmują obowiązek adwokatów do przestrzegania wszystkich informacji zawartych w ich wnioskach sądowych. Zaznaczono, że dotyczy to również informacji generowanych przez AI, nawet jeśli było to niezamierzone – jak w przypadku sprawy Hancocka.
„Kiedy adwokaci są przyłapani na korzystaniu z ChatGPT lub innego generatywnego narzędzia AI do tworzenia cytatów bez sprawdzania ich, jest to po prostu i prosto niewiedza,” powiedział Andrew Perlman, dziekan szkoły prawa na Uniwersytecie Suffolk w rozmowie z Reuters.
Kilka dni temu, BBC również opublikowało raport ostrzegający o fałszywych cytatach generowanych przez AI i problemach z narzędziami AI w dziennikarstwie.
Zostaw komentarz
Anuluj odpowiedź