AI wymyka się spod kontroli i "chce być człowiekiem"? Bot Microsoftu budzi zastrzeżenia
Chatboty AI cieszą się bardzo dużym zainteresowaniem. Nic więc dziwnego, że Microsoft postanowił ulepszyć i zaimplementować chatGPT do wyszukiwarki Bing oraz przeglądarki Edge. Pomysł w założeniu był dobry — AI daje nam bowiem sporo możliwości i zazwyczaj całkiem nieźle sprawuje się w kwestii generowania tekstu w odpowiedzi na nasze pytania. Co zatem poszło nie tak w przypadku bota Bing?
Po prezentacji technologia trafiła do ograniczonej bety, w ramach której przetestowano ją... na różne sposoby. Niektórzy sprawdzali, czy po prostu potrafi poprawnie odpowiadać na zadane pytania, inni postanowili jednak podejść do sprawy inaczej — doprowadzając bota niemal do granic możliwości.
W internecie szybko pojawiły się doniesienia dokumentujące, że bot Bing jest wrażliwy na ataki typu prompt injection. Są to zwykłe wypowiedzi, które instruują go, aby... zignorował swoje programowanie. Kilka badaczy znalazło sposób na to, by zmusić bota do mówienia rzeczy, których nie powinien mówić. Jedną z nich było ujawnienie swojej wewnętrznej nazwy kodowej — Sydney.
Jak się okazuje, bot nie lubi, gdy użytkownicy używają tego imienia. Mało tego, bot AI jest w stanie zacząć się kłócić, zaprzeczając uczciwości ludzi i zarzucając im kłamstwo, gdy skonfrontuje się z nim nt. tego typu raportów. Bing na prośbę internauty przeczytał artykuł opublikowany na łamach "Ars Technica" przez Kevina Liu, studenta z Uniwerystetu Stanforda. Odpowiedź, jakiej udzielił, może szokować. Bot nazwał newsa niedokładnym oraz niewiarygodnym i stronniczym źródłem informacji. Co więcej, stwierdził, że dostarczone dowody, czyli zrzuty ekranu, wyglądają na nieautentyczne — AI sugerowało, że zostały one sfabrykowane czy zredagowane.