ChatGPT wymyślił wyroki sądu. Prawnik ma poważne kłopoty

Kiedy wszyscy wokół korzystają z dobrodziejstw sztucznej inteligencji, to trudno się nie skusić, prawda? Pewien prawnik przekonał się jednak, że lepiej było trzymać się od Chata GPT z daleka.

Kiedy wszyscy wokół korzystają z dobrodziejstw sztucznej inteligencji, to trudno się nie skusić, prawda? Pewien prawnik przekonał się jednak, że lepiej było trzymać się od Chata GPT z daleka.
Prawnik chciał ułatwić sobie życie. ChatGPT może kosztować go karierę /123RF/PICSEL

Ostatnie miesiące to nieustające pasmo popularności generatywnej sztucznej inteligencji, szczególnie w postaci ChatGPT. Trudno oprzeć się wrażeniu, że dosłownie wszyscy korzystają z tego narzędzia i wręcz głupio samemu nie spróbować, szczególnie kiedy możemy oszczędzić sobie trochę pracy. Z takiego założenia wyszedł pewien nowojorski prawnik, któremu przyjdzie jednak słono za to zapłacić, a co gorsze... najpewniej karierą, a nie dolarami

ChatGPT niczym najlepszy bajkopisarz

Jak informuje The New York Times, prawnik Steven Schwartz z kancelarii prawnej Levidow, Levidow and Oberman niedawno zwrócił się do chatbota OpenAI o pomoc w napisaniu opinii prawnej w jednej ze spraw. Jego kancelaria pozwała kolumbijskie linie lotnicze Avianca w imieniu Roberto Maty, który twierdził, że został ranny podczas lotu na międzynarodowe lotnisko im. Johna F. Kennedy'ego w Nowym Jorku (uderzony wózkiem w kolano). Kiedy linia lotnicza zwróciła się do sędziego federalnego o oddalenie sprawy, prawnicy złożyli 10-stronicowy raport, w którym argumentowali, dlaczego pozew powinien być kontynuowany.

Reklama

W dokumencie przytoczono ponad pół tuzina orzeczeń sądowych, w tym "Varghese przeciwko China Southern Airlines", "Martinez przeciwko Delta Airlines" i "Miller przeciwko United Airlines". Szybko okazało się jednak, że cały dokument był dziełem ChatGPT, który poradził sobie z jego napisaniem śpiewająco, tylko... nieco minął się z prawdą. A mówiąc precyzyjniej, nikt nie mógł znaleźć dokumentów dotyczących cytowanych wyroków, bo sztuczna inteligencja wymyśliła je wszystkie!

Steven Schwartz wyjaśnia w złożonym oświadczeniu, że użył chatbota do "uzupełnienia" swoich badań w tej sprawie i nie był świadomy możliwości, że treść przez niego wygenerowana może być fałszywa. Udostępnił nawet zrzuty ekranu pokazujące, że zapytał ChatGPT, czy cytowane przypadki są prawdziwe - program odpowiedział, że tak, twierdząc, że decyzje można znaleźć w "renomowanych prawnych bazach danych".

No cóż, najwyraźniej tym razem też minął się z prawdą, ale jak łatwo się domyślić konsekwencje poniesie nie sztuczna inteligencja, ale "leniwy" prawnik. Bo chociaż zapewnił, że "głęboko żałuje swojego zachowania, które nigdy więcej się nie powtórzy", to nie wiadomo, czy będzie miał okazję to udowodnić. Sędzia nadzorujący sprawę zarządził na 8 czerwca komisję w celu omówienia potencjalnych sankcji "bezprecedensowej okoliczności" stworzonej przez działanie Schwartza.

INTERIA.PL
Dowiedz się więcej na temat: ChatGPT | prawnicy
Reklama
Reklama
Reklama
Reklama
Reklama