Sztuczna inteligencja, prawdziwe ryzyko. Ekspertka: "To tylko iluzja"
Sztuczna inteligencja potrafi pisać, tłumaczyć i radzić – z pozoru brzmi jak magia. Ale ta magia ma swoją ciemną stronę. O tym, co AI naprawdę umie, gdzie zawodzi i jak może być niebezpieczna, opowiada dr Agnieszka Karlińska z NASK. Po przeczytaniu inaczej spojrzysz na algorytmy.

Jeszcze kilka lat temu sztuczna inteligencja wydawała się rozwiązaniem przyszłości. Dziś jest wszędzie - w telefonie, przeglądarce, skrzynce mailowej. Pomaga pisać, tłumaczyć, streszczać, rozmawiać. Robi dobre wrażenie. Czasem aż za dobre. Bo zaskakująco łatwo zapomnieć, że to tylko algorytmy, nie myślące istoty.
O tym, co AI naprawdę potrafi - a czego się po niej lepiej nie spodziewać - rozmawiałem z dr Agnieszką Karlińską z NASK, badaczką zajmującą się dużymi modelami językowymi i bezpieczeństwem sztucznej inteligencji. Kieruje projektem HIVE AI, którego celem jest rozwój i wdrażanie modeli PLLuM. Polskie modele językowe, choć w najbliższym czasie najprawdopodobniej nie dościgną ChataGPT, oferują szereg możliwości i zdecydowanie lepiej niż modele zagraniczne znają polski język, historię i kulturę. Badaczka ostrzega jednocześnie przed naiwnym zaufaniem do treści generowanych przez modele językowe. Bo sztuczna inteligencja - choć "robi wrażenie" - ma swoje ograniczenia. I swoje ryzyka.
Przewidzieć kolejne słowo
Z punktu widzenia nauki, generatywna sztuczna inteligencja to nic innego jak zaawansowana sieć neuronowa, która uczy się na podstawie ogromnych zbiorów danych i... przewiduje. Tylko tyle - i aż tyle. W przypadku modeli językowych chodzi o przewidywanie kolejnych słów w zdaniu. Efekt końcowy potrafi zaskoczyć - zdania są składne, tekst logiczny, styl poprawny. - Z punktu widzenia użytkownika to wygląda jak rozmowa z inteligentnym bytem. Ale my wiemy, że to tylko algorytmy. To wrażenie inteligencji wynika z zaawansowanej konstrukcji modeli i ogromnej skali danych, na których zostały wytrenowane - tłumaczy dr Karlińska.
Wrażenie, które bywa zdradliwe. Bo modele nie mają świadomości, nie myślą, nie rozumieją. A jednak coraz częściej powierzamy im zadania, które wymagają właśnie tych kompetencji: pytamy je o prawo, zdrowie, relacje. Liczymy na porady, zrozumienie, trafność. Zapominając, że to wszystko opiera się na statystyce i prawdopodobieństwie.
Niebezpieczeństwo zaczyna się wtedy, gdy bezkrytycznie uwierzymy w tę iluzję.
Stereotypy, halucynacje, dezinformacja
Sztuczna inteligencja potrafi wygenerować idealnie brzmiącą bzdurę. I to nie zawsze w złej wierze - częściej z powodu tzw. halucynacji, czyli błędów poznawczych algorytmu, który "wymyśla" dane, gdy ich nie zna. Może też powielać uprzedzenia i stereotypy zawarte w danych, na których się uczyła.
- Zajmuję się wykrywaniem tzw. obciążeń w modelach językowych, a więc stereotypów i uprzedzeń wynikających przede wszystkim z tego, na jakich danych model był trenowany. Takie zachowania prowadzą do uprzedzeń wobec grup społecznych i są szczególnie niebezpieczne w zastosowaniach, takich jak edukacja czy administracja publiczna. Mogą prowadzić do generowania treści dyskryminujących, nierównego traktowania obywateli i obywatelek oraz podejmowania błędnych decyzji - mówi badaczka. Przykłady? Wystarczy zapytać AI o opis przedstawiciela jakiejś mniejszości. Jeśli model powiela stereotypy, wzmacnia je - zamiast niwelować. - Pracujemy nad tym, aby modele PLLuM udzielały odpowiedzi nie tylko poprawnych pod względem merytorycznym i językowym, ale też możliwie wyważonych i inkluzywnych, wolnych od szkodliwych stereotypów - podkreśla.
Do tego dochodzi ryzyko wykorzystania AI do tworzenia treści szkodliwych i szerzenia dezinformacji. Modele językowe generują teksty, które brzmią naturalnie - niekiedy lepiej niż człowiek, a z pewnością szybciej niż redakcja. - Można tak skonfigurować model, żeby treści brzmiały tak, że trudno je odróżnić od prawdy - ostrzega ekspertka. Choć popularne systemy, takie jak ChatGPT, mają wbudowane zabezpieczenia, które ograniczają generowanie treści szkodliwych, nie jest to wystarczające. W rękach rządów czy grup przestępczych - z odpowiednim zapleczem technicznym - mogą stać się narzędziem manipulacji na masową skalę.
Zagrożenie nie dotyczy tylko dezinformacji politycznej. Niebezpieczne są też fałszywe porady zdrowotne, instrukcje mogące prowadzić do samouszkodzeń czy prób samoleczenia. - Model powinien nie tylko odmawiać generowania takich treści, ale też kierować do właściwych instytucji, podając np. numer telefonu do linii wsparcia - podkreśla dr Karlińska. To kwestia odpowiedzialności - projektowej, systemowej i etycznej.
Czy można temu zaradzić?
Nie ma jednej odpowiedzi. Na pewno kluczowe jest zabezpieczanie modeli, ograniczanie ich możliwości w zakresie generowania treści szkodliwych, ale też edukowanie użytkowników. Nad tym właśnie pracują polscy badacze - tworząc mniejsze, lokalne modele językowe, trenowane na polskich danych, których działanie można lepiej kontrolować. Modele otwarte, które będzie można uruchamiać lokalnie, bez przesyłania danych na zewnętrzne serwery. Modele, które rozumieją polski kontekst - prawny, językowy, społeczny.
- Nasze analizy wskazują, że twórcy międzynarodowych LLM-ów nie są w stanie w sposób wyczerpujący przebadać odporności modeli na ataki prowadzone w lokalnych językach. Również z tego względu zasadne wydaje się - w szczególności w administracji publicznej i krytycznych obszarach gospodarki - postawienie na modele lokalne, dobrze przebadane pod kątem bezpieczeństwa - tłumaczy badaczka.
Ale równie ważna, jeśli nie ważniejsza, jest edukacja. Nie tylko techniczna, ale społeczna. - Nawet studenci stosunkowo rzadko korzystają z narzędzi takich jak ChatGPT. A przecież mogliby - do robienia notatek, tłumaczeń, streszczeń - zauważa rozmówczyni. Potrzebujemy warsztatów, szkoleń, zajęć - nie tylko z obsługi AI, ale z myślenia krytycznego. Z rozróżniania fikcji od faktów. Z rozumienia, czym jest algorytm - i czym nie jest.
Bo jeśli nie nauczymy się korzystać z tych narzędzi odpowiedzialnie, to one mogą zacząć wykorzystywać naszą wiedzę i nasze słabości. A wtedy to nie będzie już tylko problem technologiczny, ale społeczny i polityczny.
***
Bądź na bieżąco i zostań jednym z 87 tys. obserwujących nasz fanpage - polub GeekWeek na Facebooku i komentuj tam nasze artykuły!