OpenAI pozwane za zniesławienie. ChatGPT posunął się za daleko

Wiemy, że chatboty AI nie zawsze podają prawdziwe informacje. Zdarza im się także zmyślać, a następnie bronić swojej wyimaginowanej rzeczywistości, mimo że niemal palcem wskazujemy im, że mówią nieprawdę. Gdy dzieje się tak w przypadku w miarę nieistotnych albo łatwych do sprawdzenia informacji, problem nie wydaje się aż tak spory. Kiedy jednak w grę wchodzi zniesławienie, sprawa wygląda nieco inaczej. Czy tym razem ChatGPT poszedł o krok za daleko?

Gdy zalogujemy się na stronie OpenAI w celu skorzystania z ChatuGPT możemy przeczytać kilka informacji. Wśród nich widnieje ta, że wiedza bota kończy się na 2021 roku. Zaznaczono także, że ChatGPT może generować nieprawidłowe informacje (co, umówmy się, w przypadku botów AI wcale aż tak nie dziwi) i podawać szkodliwe instrukcje czy nieobiektywne treści. Nie sposób jest tego nie zauważyć.

Wielokrotnie zdarzyło się już, że bot faktycznie zmyślał. Nie trzeba nawet długo poszukiwać — gdy w zeszłym tygodniu zadałam mu pytanie dotyczące Siri mówiącej po polsku, która aktualnie nadal tego nie robi, bot z pełnym przekonaniem odpowiadał, że asystentka potrafi używać języka polskiego, co jest nieprawdą.

Reklama

Gdy coś takiego ma miejsce w przypadku aspektów raczej nieistotnych, zapewne możemy po prostu przymknąć na to oko. Zostaliśmy przecież ostrzeżeni, technologia nie działa idealnie i popełnia błędy. Zdaje się jednak, że ChatGPT przesadził, a sprawa może skończyć się w sądzie.

Czy OpenAI jest odpowiedzialne za to, co mówi ChatGPT?

Mark Walters z radia Armed America złożył pozew przeciwko OpenAI o zniesławienie. Jak zaznacza "Bloomberg", jest to pierwszy taki przypadek. Jak czytamy, Fred Riehl zbierał materiały do artykułu na temat konkretnej sprawy z sądu federalnego w Waszyngtonie. Mężczyzna poprosił bota o jej podsumowanie. Wszystko byłoby w porządku, gdyby w wygenerowanym podsumowaniu nie znalazły się fałszywe informacje na temat wspomnianego Waltersa. ChatGPT miał powiedzieć, że ten był zamieszany w defraudację. Nie da się ukryć, że jest to poważne oskarżenie.

W pozwie wyszczególniono, że ChatGPT stwierdził, iż mężczyzna przeznaczył fundusze fundacji na wydatki osobiste bez upoważnienia, manipulował dokumentacją finansową i wyciągami bankowymi, by ukryć swoje działania i nie dostarczył prawidłowych raportów finansowych. Całość została jednak zupełnie sfabrykowana, a sam Walters nie pracuje ani nigdy nie pracował dla tej konkretnej fundacji.  Jak zauważa "Gizmodo", nie został też wspomniany na żadnej z 30 stron pozwu, który był streszczany. Bot miał także zacytować błędny numer sprawy. Gdy Riehl poprosił czat o zweryfikowanie przytaczanych informacji, ten zaznaczał, że są one poprawne.

Walters domaga się odszkodowania w wysokości, jaka zostanie ustalona na rozprawie.

O podobnej sytuacji mogliśmy słyszeć, kiedy to australijski burmistrz zagroził pozwaniem firmy OpenAI. Wtedy ChatGPT stwierdził, że mężczyzna był skazanym przestępcą w skandalu łapówkarskim, a w rzeczywistości był on informatorem.

INTERIA.PL
Dowiedz się więcej na temat: Sztuczna inteligencja | ChatGPT
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy