Prawnicy obwiniają ChatGPT za oszukanie ich w celu zacytowania fałszywego orzecznictwa

Prawnicy obwiniają ChatGPT za oszukanie ich w celu zacytowania fałszywego orzecznictwa

Dwóch przepraszających prawników, odpowiadając na wściekłego sędziego sądu federalnego na Manhattanie, obwiniło dziś ChatGPT o nakłanianie ich do włączenia fałszywych badań prawnych do akt sądowych.

Adwokaci Stephen A. Schwartz i Peter LoDuca mogą zostać ukarani za złożenie pozwu przeciwko linii lotniczej, który zawierał odniesienia do poprzednich spraw sądowych, które według Schwartza były prawdziwe, ale w rzeczywistości zostały wymyślone przez chatbota napędzanego sztuczną inteligencją.

Schwartz powiedział, że użył przełomowego oprogramowania do wyszukiwania precedensów prawnych wspierających sprawę klienta przeciwko kolumbijskiej linii lotniczej Avianca w związku z urazem podczas lotu w 2019 roku.

Chatbot, który olśnił świat, tworząc esejowe odpowiedzi na roszczenia użytkowników, zasugerował kilka przypadków wypadków lotniczych, których Schwartz nie mógł znaleźć zwykłymi metodami stosowanymi w jego kancelarii prawnej.

Problem polegał na tym, że wiele z tych przypadków nie było prawdziwych lub dotyczyło nieistniejących linii lotniczych.

Schwartz powiedział amerykańskiemu sędziemu okręgowemu B. Kevin Castle powiedział, że „działa w błędnym przekonaniu… że ta strona otrzymywała te problemy z niektórych źródeł, do których nie miałem dostępu”.

Powiedział, że „poniósł porażkę” w przeprowadzeniu dalszych badań w celu zapewnienia autentyczności cytatów.

„Nie rozumiałem, że ChatGPT może wymyślać problemy” – powiedział Schwartz.

Microsoft zainwestował około 1 miliarda USD (1,64 miliarda NZD) w OpenAI, firmę stojącą za ChatGPT.

Jego sukces, który pokazał, jak sztuczna inteligencja może zmienić sposób, w jaki ludzie pracują i uczą się, wzbudził niepokój niektórych. Setki liderów branży podpisało w maju list ostrzegający, że „łagodzenie zagrożenia wyginięciem ze strony sztucznej inteligencji powinno być globalnym priorytetem wraz z innymi zagrożeniami społecznymi, takimi jak pandemie i wojna nuklearna”.

Sędzia Castell wydawał się zdumiony i zdenerwowany tym niezwykłym wydarzeniem i rozczarowany, że adwokaci nie podjęli szybkich działań w celu skorygowania fałszywych cytatów prawnych, kiedy po raz pierwszy zostali powiadomieni o problemie przez adwokatów Avianca i sąd. Avianca powołała się na fałszywe orzecznictwo w marcowym zgłoszeniu.

Sędzia skonfrontował Schwartza z jedną sprawą prawną wymyśloną przez program komputerowy. Początkowo opisywano ją jako sprawę o bezprawną śmierć wniesioną przez kobietę przeciwko linii lotniczej, która zamieniła się w pozew dotyczący mężczyzny, który spóźnił się na lot do Nowego Jorku i musiał ponieść dodatkowe koszty.

„Czy możemy się zgodzić, że jest to nonsens prawny?” — zapytał Castell.

Schwartz powiedział, że błędnie uważał, że zagmatwana prezentacja była spowodowana fragmentami zaczerpniętymi z różnych części sprawy.

Kiedy Castel skończył go przesłuchiwać, Schwartz zapytał, czy ma coś jeszcze do powiedzenia.

„Chciałbym szczerze przeprosić” – powiedział Schwartz.

Dodał, że w wyniku pomyłki cierpiał osobiście i zawodowo i czuł się „zawstydzony, upokorzony i głęboko skruszony”.

Powiedział, że on i firma, dla której pracował – Livido, Livido i Opperman – wprowadzili zabezpieczenia, aby nic podobnego się nie powtórzyło.

Luduca, drugi prawnik, który pracował nad tą sprawą, powiedział, że ufa Schwartzowi i nie przejrzał odpowiednio tego, co zebrał.

Po tym, jak sędzia przeczytał na głos fragmenty jednej z cytowanych spraw, aby pokazać, jak łatwo było rozpoznać, że to „bełkot”, Loduca powiedział: „Nigdy nie przyszło mi do głowy, że to była fałszywa sprawa”.

Powiedział, że wynik „rani mnie bez końca”.

Ronald Minkoff, prawnik kancelarii, powiedział sędziemu, że wniosek „spowodował zaniedbanie, a nie złą wolę” i nie powinien skutkować karami.

Prawnicy historycznie mieli trudności z technologią, zwłaszcza nową technologią, powiedział, „i nie stało się to wcale łatwiejsze”.

„Pan Schwartz, który prawie nie zajmuje się badaniami federalnymi, wybrał tę nową technologię. Myślał, że ma do czynienia ze standardową wyszukiwarką” — powiedział Minkoff. „To, co robił, to bawienie się ostrą amunicją”.

Daniel Shen, profesor nadzwyczajny i zastępca dyrektora ds. badań w Centre for Legal and Court Technology w College of William & Mary Law, powiedział, że przedstawił sprawę Avianki podczas konferencji w zeszłym tygodniu, która przyciągnęła dziesiątki uczestników osobiście i online z stanowych i federalnych . Sądy w Stanach Zjednoczonych, w tym Sąd Federalny na Manhattanie.

Powiedział, że temat wywołał szok i zamieszanie na konferencji.

„Mówimy o południowym dystrykcie Nowego Jorku, okręgu federalnym, który zajmuje się dużymi sprawami, 9/11 dla wszystkich dużych przestępstw finansowych” – powiedział Sheen. „Był to pierwszy udokumentowany przypadek możliwego wykroczenia zawodowego ze strony prawnika korzystającego z generatywnej sztucznej inteligencji”.

Powiedział, że sprawa pokazała, jak prawnicy mogą nie rozumieć, jak działa ChatGPT, ponieważ ma tendencję do halucynacji, mówiąc o fikcyjnych rzeczach w sposób, który wydaje się realistyczny, ale taki nie jest.

„Podkreśla niebezpieczeństwa związane z używaniem obiecujących technologii sztucznej inteligencji bez znajomości ryzyka” – powiedział Shen.

Sędzia powiedział, że o karach zdecyduje później.

Phoebe Newman

"Podróżujący ninja. Rozrabiaka. Badacz bekonów. Ekspert od ekstremalnych alkoholi. Obrońca zombie."

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *