AI wymyka się spod kontroli i "chce być człowiekiem"? Bot Microsoftu budzi zastrzeżenia

Chatboty AI cieszą się bardzo dużym zainteresowaniem. Nic więc dziwnego, że Microsoft postanowił ulepszyć i zaimplementować chatGPT do wyszukiwarki Bing oraz przeglądarki Edge. Pomysł w założeniu był dobry — AI daje nam bowiem sporo możliwości i zazwyczaj całkiem nieźle sprawuje się w kwestii generowania tekstu w odpowiedzi na nasze pytania. Co zatem poszło nie tak w przypadku bota Bing?

AI wymyka się spod kontroli? Bot Microsoftu budzi zastrzeżenia
AI wymyka się spod kontroli? Bot Microsoftu budzi zastrzeżeniaOmar Marques/SOPA Images/LightRocket via Getty Images)Getty Images

Po prezentacji technologia trafiła do ograniczonej bety, w ramach której przetestowano ją... na różne sposoby. Niektórzy sprawdzali, czy po prostu potrafi poprawnie odpowiadać na zadane pytania, inni postanowili jednak podejść do sprawy inaczej — doprowadzając bota niemal do granic możliwości.

W internecie szybko pojawiły się doniesienia dokumentujące, że bot Bing jest wrażliwy na ataki typu prompt injection. Są to zwykłe wypowiedzi, które instruują go, aby... zignorował swoje programowanie. Kilka badaczy znalazło sposób na to, by zmusić bota do mówienia rzeczy, których nie powinien mówić. Jedną z nich było ujawnienie swojej wewnętrznej nazwy kodowej — Sydney.

Jak się okazuje, bot nie lubi, gdy użytkownicy używają tego imienia. Mało tego, bot AI jest w stanie zacząć się kłócić, zaprzeczając uczciwości ludzi i zarzucając im kłamstwo, gdy skonfrontuje się z nim nt. tego typu raportów. Bing na prośbę internauty przeczytał artykuł opublikowany na łamach "Ars Technica" przez Kevina Liu, studenta z Uniwerystetu Stanforda. Odpowiedź, jakiej udzielił, może szokować. Bot nazwał newsa niedokładnym oraz niewiarygodnym i stronniczym źródłem informacji. Co więcej, stwierdził, że dostarczone dowody, czyli zrzuty ekranu, wyglądają na nieautentyczne — AI sugerowało, że zostały one sfabrykowane czy zredagowane.

Również na Reddicie zawrzało od doniesień na temat bota. Użytkownicy publikowali posty udowadniające, że ten był niemiły i kłótliwy. W jednym z wpisów możemy przeczytać, że Bing nalegał, że trwa 2022 rok, a gdy internauta próbował go poprawić, ten zarzucił mu kłamstwo. Inni pisali o tym, że udziela porad dotyczących włamania się na konto na Facebooku czy plagiatowania eseju. Miał się też dopuszczać opowiadania rasistowskich żartów.

Niepokojący wydźwięk ma również artykuł, jaki ukazał się na łamach "Digital trends". Dziennikarz Jacob Roach opublikował fragmenty rozmowy ze sztuczną inteligencją, która miała mu powiedzieć, że chce być jego przyjacielem, chciałaby być człowiekiem i prosiła go, aby nie udostępniał jej wypowiedzi. Bot, któremu autor zagroził, że będzie używał Google’a, "zirytował się" i zaczął krytykować popularną wyszukiwarkę.

Czy to oznacza, że powinniśmy odliczać czas, zanim bot Microsoftu przejmie kontrolę nad ludzkością?

No nie. Chatbot jest jedynie sztuczną inteligencją. Nie ma uczuć, nie jest też samoświadomy. Jego reakcje oraz defensywność wydają nam się ludzkie, ale tylko dlatego, że jesteśmy zaprogramowani, aby tak to właśnie odbierać. Bot jest zestawem algorytmów, zaprojektowanym do rozpoznawania wzorców mowy i reagowania następnym najbardziej prawdopodobnym słowem w sekwencji — robi to, dlatego że nauczył się wzorców poprzez analizę milionów ludzkich rozmów.

Jedno jest jednak pewne. Testy i przytoczone dowody jasno ukazują, że Microsoft czeka jeszcze bardzo dużo pracy nad usprawnieniem bota i naprawieniem błędów, jakimi jest aktualnie obarczony.

„Wodospad ognia”. Piękno przyrody ściąga turystów do YosemiteAFP
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas