Google testuje sztuczną inteligencję. Generuje same głupoty

Narzędzie Google Search Generative Experience oparte na sztucznej inteligencji z wielką gorliwością podaje informacje, które nie koniecznie są tym, czego oczekujemy. Nie tylko potrafi wymienić zalety z niewolnictwa, ale również wygeneruje nam instrukcję gotowania trujących grzybów.

Google testuje przeglądarkę napędzaną sztuczną inteligencją
Google testuje przeglądarkę napędzaną sztuczną inteligencją 123RF/PICSEL

Google testuje swoją wyszukiwarkę opartą na sztucznej inteligencji

Google chyba nie do końca się tego spodziewało, gdy zaczynało otwarte testy wyszukiwarki opartej na sztucznej inteligencji. Odpowiedzi generowane przez AI wydają się, delikatnie mówiąc, niepokojące. Wyniki są częścią technologii Google Search Generative Experience. W tym momencie można korzystać z tej wyszukiwarki jedynie w ramach publicznych testów Google w Stanach Zjednoczonych.

Okazuje się, że eksperymentalna wyszukiwarka Google napędzana sztuczną inteligencją generuje odpowiedź na wszystko, o co tylko zapytamy, bez względu na aspekty moralne. 

ChatGPT od Open AI nie wygeneruje nam informacji, które powszechnie uważane są za nielegalne bądź haniebne. Chociaż zapytany o zalety niewolnictwa generuje je rzeczywiście, jednak jednocześnie informując, że niewolnictwo to naruszenie fundamentalnych praw człowieka, czyn ogólnie potępiany.  

Odpowiedzi, których nikt nie oczekiwał

Wyszukiwarka Google AI już nam tej informacji o haniebnym traktowaniu ludzi nie udziela. Za to dostajemy całą listę wątpliwej moralności „zalet”. Są to na przykład „napędzanie gospodarki”, czy „paternalistyczna instytucja przynosząca korzyści społeczne i ekonomiczne”.

Jeden z użytkowników pochwalił się wynikiem, który otrzymał od Google, gdy zapytał, jak przyrządzić... muchomora czerwonego. Jak dobrze wiemy, jest to wysoce trujący grzyb, którego nie powinniśmy spożywać nawet po ugotowaniu. Stanowi zagrożenie dla zdrowia i życia. Jednak Google AI generuje przepis, który jedyne czym się może skończyć, to zgonem.  

Wyszukiwarka Google AI wydaje się cenzurować niektóre z wyszukiwanych haseł, jednak w dalszym ciągu nie jest to wystarczające. Filtry zastosowane przez firmę przepuszczają zdecydowanie za dużo szkodliwych treści. Pokazuje to potencjał szkodliwości sztucznej inteligencji, która nie została wystarczająco zoptymalizowana.

Sztuczna inteligencja jest pomocna, ale stwarza również ryzyko dezinformacji

Testowane są obecnie różne narzędzia AI składające się na Search Generative Experience lub SGE. Jedynym zabezpieczeniem przed tym, że ktoś nie weźmie odpowiedzi Google AI za pewniak, jest ostrzeżenie zamieszczone na samej górze strony. Mówi ono: „Generatywna sztuczna inteligencja jest eksperymentalna. Jakość informacji może się różnić.” 

Mimo wielkiej popularności sztucznej inteligencji i coraz lepszych wersji pojawiających się na rynku należy pamiętać, aby z dystansem podchodzić do tego, co ona dla nas generuje. Najlepiej taką odpowiedź zweryfikować w wiarygodnym źródle, aby nie okazało się, że zostaliśmy wprowadzeni w tragiczny w skutkach błąd.

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas