Zapytała ChatGPT o poradę i nie wpuścili jej na lot. Mówi o "zemście AI"
Coraz więcej osób szuka porad u AI, nawet w kontekście zdrowia, kwestii prawnych czy planowania podróży. Posiłkowanie się narzędziami takimi jak ChatGPT bywa pomocne, jednak bezgraniczne ufanie botom i brak samodzielnego myślenia może prowadzić do problemów. Przekonała się o tym turystka, która chciała lecieć do Portoryko.

W skrócie
- Coraz więcej osób polega na sztucznej inteligencji podczas podejmowania ważnych decyzji, co może prowadzić do przykrych konsekwencji.
- Przekonała się o tym między innymi turystka z Hiszpanii, której nie wpuścili na lot, bo polegała wyłącznie na odpowiedzi ChatGPT.
- Zalecane jest samodzielne weryfikowanie informacji, aby uniknąć nieprzyjemnych sytuacji wynikających z tzw. halucynacji AI.
- Więcej podobnych informacji znajdziesz na stronie głównej serwisu
Bezgranicznie zaufanie do AI. Wynikają z tego problemy
Jak bardzo można ufać sztucznej inteligencji? Niedawno wspominaliśmy o przypadku mężczyzny ze Stanów Zjednoczonych, który zadzwonił pod numer telefonu zasugerowany mu przez Google AI Overviews i mocno się zdziwił, bo trafił na oszusta. Teraz pojawił się kolejny interesujący przypadek nadmiernego polegania na AI.
Mery Caldass, influencerka z Hiszpanii, rozpłakała się na lotnisku, gdy nie została wpuszczona na lot, którym miała dotrzeć wraz ze swoim partnerem na wakacje w Portoryko. Stało się tak przez to, że zamiast samodzielnie zapoznać się ze wszystkimi wytycznymi dotyczącymi danej podróży, powierzyła rozeznania właśnie AI - konkretnie ChatGPT.
Planowała wycieczkę używając ChatGPT. Nie wpuścili jej na lot
Caldass zapytała AI, czy potrzebuje wizy, by lecieć na wyspę na Morzu Karaibskim. Odpowiedź bota miała brzmieć "nie". Kobieta stwierdziła, że "już nie ufa ChatGPT", jak przekazuje "People", gdyż w ten sposób bot pośrednio wprowadził ją w błąd. Choć obywatele UE nie potrzebują wizy na krótkie pobyty w Portoryko, zwykle muszą przed taką podróżą wypełnić online formularz ESTA, bo Portoryko stanowi terytorium Stanów Zjednoczonych. Te informacje Mery przeoczyła. Kobieta powiedziała w żartach, że "czasem używa obraźliwych określeń w stosunku do ChatGPT, więc może to była zemsta AI", iż nie wygenerowała wszystkich szczegółów.
Tiktokerka podzieliła się swoimi doświadczeniami w mediach społecznościowych. Choć stwierdziła, że to sztuczna inteligencja wprowadziła ją w błąd, to jednocześnie przyznała, że sama też ponosi winę, gdyż nie sprawdziła informacji. Pod filmikiem pojawiło się sporo krytycznych komentarzy. Wypunktowywano m.in. fakt, że przecież istnieją strony rządowe, które są łatwo dostępne i w przejrzysty sposób udostępniają wszelkie informacje potrzebne do zaplanowania takiej podróży. Ważne jest też odpowiednie sformułowanie pytania do bota AI.
Halucynacje sztucznej inteligencji mogą mieć dramatyczne skutki
W obu wspomnianych przypadkach - mężczyzny z USA i kobiety z Hiszpanii - AI w jakiś sposób wprowadziło pytających w błąd, jednak nie można tu przeoczyć faktu, że sami użytkownicy niejako na to pozwolili, nie weryfikując informacji. Mężczyzna mógł po prostu wejść na stronę firmy, której numeru szukał, a kobieta - choćby na wspomnianą stronę rządową.
Nie zmienia to jednak tego, że narzędzia AI wymagają dalszych prac, które będą je udoskonalać i ograniczać podobne sytuacje. Niekiedy bowiem poleganie wyłącznie na poradach AI, która od czasu do czasu cierpi na "halucynacje" (generuje odpowiedzi zawierające fałszywe lub wprowadzające w błąd informacje w taki sposób, jakby to były fakty) może skończyć się tragicznie. Przykładem jest choćby przypadek mężczyzny, który ułożył sobie dietę za pomocą ChatGPT i w wyniku jej stosowania trafił do szpitala.
Twórcy aplikacji i programów opartych na sztucznej inteligencji w odpowiedzi na zgłoszenia tego typu problemów regularnie zapewniają, że narzędzia te są cały czas poprawiane i ulepszane. Lepiej jednak nie zapominać z tej okazji, że choć niekiedy AI bardzo się przydaje, to jednak mamy też własną inteligencję - i warto z niej korzystać.