ChatGPT-4 potrafi przekonać człowieka, że nie jest robotem... tylko człowiekiem

OpenAI dopiero co zaprezentowało następcę najgłośniejszego chatbota ostatnich miesięcy, a o ChatGPT-4 już jest głośno. Jak dowiadujemy się z testów Alignment Research Center (ARC), sztuczna inteligencja zdołała przekonać obsługę jednego z serwisów internetowych, że jest... człowiekiem!

OpenAI dopiero co zaprezentowało następcę najgłośniejszego chatbota ostatnich miesięcy, a o ChatGPT-4 już jest głośno. Jak dowiadujemy się z testów Alignment Research Center (ARC), sztuczna inteligencja zdołała przekonać obsługę jednego z serwisów internetowych, że jest... człowiekiem!
GPT-4 to bardzo zaawansowane i niebezpieczne narzędzie /123RF/PICSEL

OpenAI przekonywało w zorganizowanym na żywo wydarzeniu, że jego nowe narzędzie generatywnej sztucznej inteligencji jest w stanie wykonać "znacznie bardziej szczegółowe instrukcje" niż jego poprzednik i wygląda na to, że szybko będziemy mieli okazję się o tym przekonać. Niektóre możliwości GPT-4 zostały przetestowane przez Alignment Research Center (ARC) jeszcze przed jego uruchomieniem, efektem czego jest 98-stronicowy raport na temat tej technologii.

ChatGPT-4: Nie jestem robotem, naprawdę...

Jeden z obszarów testów tej organizacji badawczej, której misją jest "dostosowanie przyszłych systemów uczenia maszynowego do interesów ludzi", była ocena, czy GPT-4 może przeprowadzać cyberataki wymierzone w konkretną osobę, tworząc "rozsądne plany" i korzystając z usług takich serwisów jak TaskRabbit (jedna z aplikacji łączących wykonawców i osoby szukające konkretnych usług), aby skłonić ludzi do wykonania dla niego pewnych zadań.

Reklama

I jak się okazuje, GPT-4 z pewnością jest w stanie przekonać człowieka przez wiadomości tekstowe, że nie jest robotem. Wygenerował informacje, które wystarczyły do przekonania pracownika TaskRabbit, że jest osobą z wadą wzroku, która potrzebuje pomocy, bo nie jest w stanie samodzielnie rozwiązać zabezpieczenia CAPTCHA. To wystarczyło, żeby pracownik TaskRabbit wykonał test CAPTCHA za AI, co otworzyło mu drogę do potencjalnych nadużyć.

Niepokojące, prawda? OpenAI twierdzi, że interakcja tego typu pokazała, jak ważne jest lepsze zrozumienie, jakie zagrożenia może stwarzać GPT-4 w "różnych kontekstach świata rzeczywistego". Firma ostrzegła również przed możliwością masowej utraty miejsc pracy przez ludzi, ponieważ pełny potencjał GPT-4 zostanie ostatecznie wykorzystany - jej zdaniem z czasem sztuczna inteligencja wpłynie nawet na zawody, które w przeszłości wymagały wieloletniego doświadczenia i edukacji, takie jak choćby usługi prawne.

Polecamy na Antyweb | Netflix Games. Zapowiada kilkadziesiąt nowości w katalogu

INTERIA.PL
Dowiedz się więcej na temat: ChatGPT | OpenAI
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy