ChatGPT "wróży" zdradę z fusów po kawie. Jest pozew rozwodowy
Przecież ChatGPT nie może się mylić, prawda? Szczególnie jeśli ma do dyspozycji fusy po kawie, bo tasseomancja to metoda od wieków używana przez wróżbitów z całego świata. Najwyraźniej z takiego założenia wyszła pewna mieszkanka Grecji, która postanowiła rozwieść się z mężem po tym, jak AI "przeanalizowała" resztki jego kawy i uznała, że "widzi" w nich zdradę.

Słyszeliśmy już o wielu przedziwnych przyczynach rozwodów, ale "wróżby" ChataGPT jeszcze wśród nich nie było, a taki właśnie przypadek spotkał pewne greckie małżeństwo. Para postanowiła dla zabawy poprosić sztuczną inteligencję o "interpretację" fusów po kawie w ich filiżankach, ale raczej nie spodziewali się, że… zakończy to trwające 12 lat małżeństwo.
Jak podaje Greek City Times, zamiast ograniczyć się do zabawnego komentarza, ChatGPT zasugerował, że fusy w filiżance mężczyzny ujawniają jego fantazje o kobiecie, której imię zaczyna się na literę "E" i jest mu pisane rozpoczęcie z nią związku. Jakby tego było mało, fusy kobiety "potwierdziły", że jest zdradzana z tajemniczą kobietą, która chce zniszczyć ich rodzinę.
ChatGPT rozbił małżeństwo
Mężczyzna przyjął tę "analizę" ChataGPT ze śmiechem, ale jego żona potraktowała ją śmiertelnie poważnie. Na nic zdały się zapewnienia męża, że nic nie ukrywa, jest niewinny i nie ma żadnej kochanki - parze nie udało się dojść do porozumienia o separacji, więc kilka dni później kobieta wręczyła mężowi pozew rozwodowy.
Ona wzięła to na serio. Kazała mi się wyprowadzić, powiedziała dzieciom, że się rozwodzimy, a potem zadzwonił do mnie prawnik. Wtedy zrozumiałem, że to nie tylko chwilowa reakcja
Przy okazji przyznał też, że jego żona jest dość podatna na tego typu sugestie, bo od dawna interesuje się ezoteryką i często ulega modnym trendom: "Kilka lat temu odwiedziła astrologa i zajęło jej rok, zanim zaakceptowała, że to nie miało nic wspólnego z rzeczywistością".
AI to również zagrożenie
I chociaż sytuacja może wydawać się postronnym zabawna, mężczyźnie zrujnowała życie, a do tego pokazuje, jak ogromny wpływ ma na nas obecnie sztuczna inteligencja, która pomimo imponującego rozwoju w ostatnich latach, wciąż jest niedoskonała i potrafi czasami generować groźne lub po prostu skrajnie głupie odpowiedzi.
Wystarczy tylko przypomnieć sprawę z ubiegłego roku, gdzie chatbot Character.AI miał namawiać 14-latka do odebrania sobie życia, co skończyło się tragicznie. Mówiąc krótko, osoby podatne psychicznie mają przez AI coraz większy problem z odróżnieniem rzeczywistości od fikcji - jak komentuje jedna z użytkowniczek Reddita, której słowa przywołuje Daily Mail:
Mam naprawdę silne przeczucie, że czeka nas ogromna fala ludzi, którym modele językowe (LLM) kompletnie zniszczą zdolność rozumienia rzeczywistości. Powiedziałabym, że to technologia, która wymaga zabezpieczeń, ale ten statek odpłynął już dawno temu