Błędy generowane przez AI w dokumentach sądowych prowadzą do kłopotów prawnych dla prawników

Photo by Saúl Bucio on Unsplash

Błędy generowane przez AI w dokumentach sądowych prowadzą do kłopotów prawnych dla prawników

Przeczytasz w: 2 min

Raport udostępniony wczoraj przez Reuters ujawnia, że halucynacje AI – błędy i wymyślone informacje tworzone przez generatywne modele AI – powodują problemy prawne na salach sądowych w Stanach Zjednoczonych.

W pośpiechu? Oto najważniejsze fakty!

  • Morgan & Morgan wysłało e-mail do 1000 prawników, ostrzegając o ryzyku związanym z AI.
  • Ostatni przypadek prawników Walmart, którzy przyznali się do korzystania z AI w swoich sprawach, wzbudził niepokój w środowisku prawniczym.
  • Używanie halucynacji chatbota w oświadczeniach sądowych stało się powtarzającym się problemem w ostatnich latach.

W tym miesiącu, kancelaria prawna Morgan & Morgan wysłała e-mail z ostrzeżeniem do ponad 1000 prawników na temat ryzyka związanego z korzystaniem z chatbotów i fałszywych spraw generowanych przez sztuczną inteligencję.

Kilka dni temu, dwóch prawników z Wyoming przyznało, że dołączyli do pozwu przeciwko Walmart fałszywe dokumenty wygenerowane przez AI, a federalny sędzia zagroził im sankcjami.

W grudniu, profesor z Stanford i ekspert od dezinformacji, Jeff Hancock, został oskarżony o wykorzystanie AI do sfałszowania cytowań deklaracji sądowej jako części swojego oświadczenia w obronie ustawy stanu z 2023 roku, która kryminalizuje użycie tzw. deepfake’ów do manipulowania wyborami.

Wielokrotnie w ciągu ostatnich kilku lat, przypadki takie jak te generowały prawne napięcia i sprawiały kłopoty sędziom i stronom procesu. Morgan & Morgan oraz Walmart odmówili komentarza na ten temat.

Generująca AI przyczynia się do skrócenia czasu badawczego dla prawników, ale jej „halucynacje” mogą generować znaczne koszty. W zeszłym roku, badanie Thomson Reuters wykazało, że 63% prawników używało AI do pracy, a 12% robiło to regularnie.

W zeszłym roku, Amerykańskie Stowarzyszenie Adwokackie przypomniało swoim 400 000 członkom o zasadach etyki adwokackiej, które obejmują obowiązek adwokatów do przestrzegania wszystkich informacji zawartych w ich wnioskach sądowych. Zaznaczono, że dotyczy to również informacji generowanych przez AI, nawet jeśli było to niezamierzone – jak w przypadku sprawy Hancocka.

„Kiedy adwokaci są przyłapani na korzystaniu z ChatGPT lub innego generatywnego narzędzia AI do tworzenia cytatów bez sprawdzania ich, jest to po prostu i prosto niewiedza,” powiedział Andrew Perlman, dziekan szkoły prawa na Uniwersytecie Suffolk w rozmowie z Reuters.

Kilka dni temu, BBC również opublikowało raport ostrzegający o fałszywych cytatach generowanych przez AI i problemach z narzędziami AI w dziennikarstwie.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...