Europol ostrzega: ChatGPT będzie wykorzystywany do przestępstw
Sztuczna inteligencja z ChatemGPT na czele nadal robi duże wrażenie. Nie ma się też czemu dziwić — za pomocą kilku kliknięć jesteśmy w stanie wygenerować od zera dość dobry tekst, mail, wątpliwej jakości rymowankę, życzenia, CV, wniosek o podwyżkę i wiele, wiele innych. Kwestią czasu jest to, kiedy boty AI będą wykorzystywane także do niecnych czynów.
Niestety, z umiejętności botów łatwo można skorzystać, tym samym dość łatwo też można ich nadużyć. Wie o tym Agencja Unii Europejskiej ds. Współpracy Organów Ścigania. Europol stał się najnowszą organizacją, która ostrzega, że przestępcy będą wykorzystywać chatboty do oszustw, takich jak phishing, siania dezinformacji oraz ogólnych działań mających znamiona cyberprzestępczości.
Agencja zauważa, że tego typu technologia bardzo szybko się rozwija i równie szybko weszła do niemal powszechnego użycia.
Można przewidzieć wpływ, jaki tego typu modele (Large Language Models - przyp. autorki) mogą mieć na pracę organów ścigania. Przestępcy zazwyczaj szybko wykorzystują nowe technologie i szybko zauważono, że wymyślają konkretne przestępcze ataki, dostarczając pierwsze praktyczne przykłady zaledwie kilka tygodni po publicznym wydaniu ChatuGPT.
Szybko generowane i łatwo modyfikowane treści - ChatGPT może pomagać w przygotowaniu kampanii phishingowych
Organizacja zaznacza, że umiejętność ChatuGPT generowania i redagowania tekstu na podstawie kilku podpowiedzi, czyni go idealnym do przygotowania ataków phishingowych. Tego typu maile czy wiadomości można często rozpoznać z powodu błędów stylistycznych, gramatycznych czy interpunkcyjnych — te mogą być wyeliminowane już na poziomie bota AI.
Jakby tego było mało, ChatGPT może też modyfikować generowaną treść w zależnie od naszych upodobań. Może zatem dowolnie zmienić styl pisania albo dostosować treść do rodzaju oszustwa, zwiększając tym samym szansę na udane wykorzystanie socjotechniki.
No i oczywiście nie można pominąć faktu, że boty AI tworzą treści z imponującą prędkością, nie przejmując się zbytnio tym, czy przekazywane informacje są prawdziwe — są więc niemal idealnym narzędziem do tworzenia postów szerzących propagandę i dezinformację.
Tu wręcz trzeba wspomnieć o istniejących już generatorach obrazów, które w mgnieniu oka potrafią stworzyć bardzo przekonujące grafiki, których niemal nie sposób odróżnić od rzeczywistych fotografii. W ostatnim czasie w internecie pojawiły się fałszywe grafiki przedstawiające aresztowanie Donalda Trumpa, spotkanie Angeli Merkel z Barackiem Obamą czy... papieża Franciszka w stylowej puchowej kurtce. Fotografie nijak nie były oznakowane, a ze względu na kontrowersyjność treści, udostępniano je na szeroką skalę, zazwyczaj bez podawania informacji, że twórcą obrazów jest sztuczna inteligencja.
ChatGPT wyręczy tych, którzy nie potrafią programować
Jak zaznacza Europol, najpewniej najbardziej niebezpiecznym aspektem ChatuGPT jest jego umiejętność tworzenia kodu — w tym wypadku złośliwego, który wyręczy cyberprzestępców, którzy nie mają dostatecznej wiedzy na temat programowania. Bot co prawda nie wygeneruje go, gdy "rozumie, co robi", jednak da się to w łatwy sposób obejść.
Polecamy na Antyweb | Papież błogosławi sztucznej inteligencji. Ale ma dla nas również przestrogę
Badacze bezpieczeństwa już w styczniu donosili, że ChatGPT był wykorzystywany na forach cyberprzestępczych jako narzędzie edukacyjne, ale i platforma do tworzenia złośliwego oprogramowania.
Bot przyda się także do zdobycia wiedzy. To, jak ją jednak wykorzystamy, pozostanie tajemnicą
Co więcej, ChatGPT może też służyć do poznawania informacji o konkretnym obszarze przestępczości, np. o terroryzmie. I oczywiście są one dostępne w sieci, jednak bot ułatwia odnajdywanie, a nawet zrozumienie — między innymi dzięki sposobowi przedstawienia treści.
Europol ostrzegł także przed niebezpieczeństwem wynikającym z tego, że dane użytkowników ChatuGPT mogą zostać ujawnione. Tak też stało się w zeszłym tygodniu.
Agencja nie jest jedyną, która ostrzega przed potencjalnym zagrożeniem wynikającym ze strony chatbotów. Podobne ostrzeżenie wydało Brytyjskie Narodowe Centrum Cyberbezpieczeństwa.