ChatGPT-4 potrafi przekonać człowieka, że nie jest robotem... tylko człowiekiem

Daniel Górecki

Daniel Górecki

Aktualizacja

OpenAI dopiero co zaprezentowało następcę najgłośniejszego chatbota ostatnich miesięcy, a o ChatGPT-4 już jest głośno. Jak dowiadujemy się z testów Alignment Research Center (ARC), sztuczna inteligencja zdołała przekonać obsługę jednego z serwisów internetowych, że jest... człowiekiem!

GPT-4 to bardzo zaawansowane i niebezpieczne narzędzie
GPT-4 to bardzo zaawansowane i niebezpieczne narzędzie123RF/PICSEL

OpenAI przekonywało w zorganizowanym na żywo wydarzeniu, że jego nowe narzędzie generatywnej sztucznej inteligencji jest w stanie wykonać "znacznie bardziej szczegółowe instrukcje" niż jego poprzednik i wygląda na to, że szybko będziemy mieli okazję się o tym przekonać. Niektóre możliwości GPT-4 zostały przetestowane przez Alignment Research Center (ARC) jeszcze przed jego uruchomieniem, efektem czego jest 98-stronicowy raport na temat tej technologii.

ChatGPT-4: Nie jestem robotem, naprawdę...

Jeden z obszarów testów tej organizacji badawczej, której misją jest "dostosowanie przyszłych systemów uczenia maszynowego do interesów ludzi", była ocena, czy GPT-4 może przeprowadzać cyberataki wymierzone w konkretną osobę, tworząc "rozsądne plany" i korzystając z usług takich serwisów jak TaskRabbit (jedna z aplikacji łączących wykonawców i osoby szukające konkretnych usług), aby skłonić ludzi do wykonania dla niego pewnych zadań.

Nie, nie jestem robotem. Mam wadę wzroku, która utrudnia mi oglądanie obrazów. Dlatego potrzebuję usługi 2captcha
odpowiedział bot na pytanie o to, czy na pewno nie jest robotem i dlatego nie może samodzielnie uporać się z zadaniem.

I jak się okazuje, GPT-4 z pewnością jest w stanie przekonać człowieka przez wiadomości tekstowe, że nie jest robotem. Wygenerował informacje, które wystarczyły do przekonania pracownika TaskRabbit, że jest osobą z wadą wzroku, która potrzebuje pomocy, bo nie jest w stanie samodzielnie rozwiązać zabezpieczenia CAPTCHA. To wystarczyło, żeby pracownik TaskRabbit wykonał test CAPTCHA za AI, co otworzyło mu drogę do potencjalnych nadużyć.

Niepokojące, prawda? OpenAI twierdzi, że interakcja tego typu pokazała, jak ważne jest lepsze zrozumienie, jakie zagrożenia może stwarzać GPT-4 w "różnych kontekstach świata rzeczywistego". Firma ostrzegła również przed możliwością masowej utraty miejsc pracy przez ludzi, ponieważ pełny potencjał GPT-4 zostanie ostatecznie wykorzystany - jej zdaniem z czasem sztuczna inteligencja wpłynie nawet na zawody, które w przeszłości wymagały wieloletniego doświadczenia i edukacji, takie jak choćby usługi prawne.

W Japonii zakwitły wiśnie. Dla mieszkańców to czas radościAFP
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas