Sztuczna inteligencja zniszczy internet jaki znamy? To już się zaczyna

Po wielkim boomie na AI, dezinformacja za jej pomocą ma stać się jednym z największych problemów współczesnego świata. Ma przyczynić się do zabicia internetowego przepływu informacji. Czy jednak wobec rozwoju sztucznej inteligencji na pewno jesteśmy skazani na życie wśród fejk newsów? O tym jak możemy bronić się przed dezinformacją na bazie sztucznej inteligencji i czy jest to możliwa walka do wygrania, Geekweek rozmawia z Aleksym Szymkiewiczem, analitykiem Stowarzyszenia Demagog.

Sztuczna inteligencja dostarczycielem internetowych śmieci

Od blisko dwóch lat obserwujemy szybki rozwój szeroko dostępnych narzędzi opartych na generatywnej sztucznej inteligencji. Gdy widzimy jej coraz szersze zastosowanie, obawy budzi fakt, że w złych rękach może doprowadzić do  katastrofy. Wygenerowany tekst, zdjęcie czy film wraz z rozwojem technologii ma powoli zalewać internet treściami nierozróżnialnymi od tych tworzonych przez ludzi.

Z tego powodu przy rozwijających się technologii narzędzia AI stanowią idealny sposób na szybsze rozpowszechnianie fejk newsów z zakresu wielu tematów od polityki poprzez medycynę, kończąc na samej technologii. Można wręcz powiedzieć, że AI jest swoistą lancą dla dezinformacji. I to w bardzo szerokim zakresie, co pokazują sami twórcy generatywnej sztucznej inteligencji. 

Reklama

- Raporty OpenAI dotyczące wykorzystywania do dezinformacji takich narzędzi jak Dall-E czy ChatGPT wskazały, że sztuczna inteligencja już jest stosowana w operacjach dezinformacyjnych, których celem jest ingerencja w infosferę. Chociażby Rosjanie używali jej do wpływania np. na europejskie wybory parlamentarne, gdzie tylko w tym przypadku wykorzystywano AI do tworzenia komentarzy czy postów, a także tłumaczenia lub edycji artykułów, które były kolportowane na szeroką skalę w mediach społecznościowych. AI jest także idealnym narzędziem do tłumaczenia treści dezinformacyjnych albo poprawiania kodu botów - mówi Aleksy Szymkiewicz.

Jak AI może tworzyć paranoję dezinformacyjną

Historie o wymyślnych zdjęciach i filmach stworzonych przez AI budzą wyobraźnie. Szczególnie że już mamy takie przypadki. W maju 2023 roku w mediach społecznościowych zaczęło krążyć zdjęcie, przedstawiające wybuch przy Białym Domu, a we wrześniu 2024 roku zdjęcie pokazujące katastrofalne efekty jednego z ataków Hezbollahu na bazę wojskową. Oba przypadki były jednak zwykłymi fałszywkami wygenerowanymi przez sztuczną inteligencję. Tak samo, jak masa fejkowych zdjęć, zalewających internet podczas np. huraganów w Stanach, mających służyć jako narzędzie do generowania konkretnych nastrojów wśród użytkowników.

Jednak należy pamiętać, że AI może być wykorzystywane do dezinformacji nie tylko w generowaniu fejk newsów. To także mniej groźne farmy lajków i bardziej niebezpiecznie oszustwa, które mogą doprowadzić do strat pieniędzy wielu ludzi. Wraz ze wzrostem świadomości na temat wykorzystywania sztucznej inteligencji do generowania treści, powstaje zrozumiały ruch sprzeciwiający się temu, gdzie zwykli użytkownicy starają się wyłapać wszelkie poszlaki, że mają do czynienia z czymś co nie zostało stworzone przez człowieka. Jednak w ten sposób, może stworzyć się chaos informacyjny i swoista paranoja oraz oskarżanie wszystko o fejk. Nawet zweryfikowane źródła, które podadzą jakąś treść, zostaną od razu zdyskredytowane jako szerzące dezinformacje na bazie AI, bo komuś się nie spodoba, co akurat przedstawia

- Dochodzi nawet do sytuacji, gdzie wykorzystuje się wzrost popularności treści tworzonych przez narzędzia AI do dyskredytowania prawdziwych materiałów. Chociażby w ostatnich wyborach w USA sztab Donalda Trumpa wykorzystał lekko przerobione zdjęcie tłumu oczekującego na płycie lotniska na wyjście Kamali Harris z samolotu. Zdjęcie opublikowane przez profil Donalda Trumpa w serwisie Truth Social przypominało grafikę wygenerowaną przez narzędzia AI. W poście opisano tłum jako fałszywy, a na płycie lotniska miał rzekomo nikt nie czekać. To mogło sugerować dodanie, wygenerowanie lub manipulację zdjęciem - wskazuje Aleksy Szymkiewicz.

Jak rozpoznawać treści stworzone przez sztuczną inteligencję

Przy wyłapywaniu treści stworzonych przez generatywną sztuczną inteligencję należy z początku mieć świadomość, że dezinformacja przede wszystkim celuje w nasze emocje. Odczuwając, że dany tekst, zdjęcie czy film został stworzony jakby w celu wywołania wobec nas konkretnych emocji. Szczególnie jeśli dotyczy wydarzeń bardzo nośnych w danym momencie. Przechodząc do szczegółów treści powstałych na bazie sztucznej inteligencji, możemy wyłapać ich elementy, znamienne dla dzisiejszej technologii. Choć trzeba pamiętać, że przy rozwoju AI to elementy znamienne na tu i teraz.

- Jeżeli mówimy o treściach audiowizualnych, to musimy zwracać uwagę na detale i do pewnego stopnia charakterystyczny wygląd pewnych efektów. Na ten moment zdjęcia i filmy stworzone przez sztuczną inteligencję mają często wyraźną poświatę, bez względu na okoliczności, co daje szanse na rozpoznanie, że to nie jest filtr. Charakterystyczną cechą jest także rozmazanie w niektórych miejscach. Na pewno należy patrzeć na detale jak napisy, z którymi dotąd AI ma problem, gdzie te są rozmazane, a litery nie przypominają tych ze znanych nam alfabetów. Co więcej, jeśli mamy osoby na zdjęciu, warto zwrócić uwagę na ich części ciała czy garderoby, na których mogą pojawić się dodatkowe lub nienaturalne elementy (guziki, kołnierze, mankiety itd.). Wciąż istotnym komponentem jest liczba palców, zębów czy kształt ucha.

- W przypadku treści pisanych przez AI dziś niestety ich rozpoznanie może przysporzyć masę problemów. Sztuczna inteligencja może przygotować zarówno post na Facebooku, krótką notkę, jak i specjalistyczny artykuł. Rozpoznanie jej śladów w tekście może być niezwykle kłopotliwe. Warto zwrócić uwagę na wyrażenia, które nie są używane w naszym języku, brzmią obco lub zawierają zapożyczenia. Może sugerować to bowiem, że tekst jest tłumaczeniem, które wygenerowało AI - podsumowuje Aleksy Szymkiewicz.

Zbyt duża panika czy cisza przez burzą?

Czy jednak dezinformacja przy użyciu treści na bazie sztucznej inteligencji jest na ten moment tak skuteczna? Nie wszyscy są wobec tego zgodni. Dr Felix M. Simon z Oxford Internet Institute twierdzi, że obawy przed zniszczeniem internetu przez dezinformacje AI, są "przesadzone". W swoich badaniach dr Simon wskazuje, że sama sztuczna inteligencja nie stanowi wartości dodanej dla szerzenia dezinformacji. Zauważa, że tak naprawdę rzeczy, jakimi AI miałaby wynieść fejk newsy na nowy poziom, jak dodanie realistyczności poprzez materiały audiowizualne czy spersonalizowanie dezinformacji nie są efektywne w szerszej skali.

Można założyć, że takie hipotezy są do pewnego stopnia zasadne. Tak naprawdę ludzie potrafią być podatni na dezinformacje nawet bez konkretnych dowodów w postaci zdjęć czy filmów, które może zapewnić sztuczna inteligencja. A przy i tak wysokim wzroście dezinformacji w ostatnich latach, AI jeszcze nie zwiększa jej zasięgu. Szczególnie że pewne technologie pozwalające tworzyć "fałszywe dowody" istnieją już od dekad jak programy do obróbki zdjęć.

Niemniej należy zauważyć, że rozwój sztucznej inteligencji postępuje nadzwyczaj szybko i jej narzędzia stają się popularne w rękach coraz szerszej grupy osób. To, co dziś jeszcze nie jest elementem dezinformacji AI, może być nią jutro. To jest fakt, na który zwraca uwagę dr Simon, twierdząc, że debata na temat dezinformacji z wykorzystaniem AI nie jest pytaniem nad tym "czy już jest groźna", tylko "co zrobić, aby nie stała się jeszcze groźniejsza". Szczególnie że jak ocenia Aleksy Szymkiewicz, efektywność takiej dezinformacji niekoniecznie trzeba mierzyć, aby stwierdzić, że i tak jest szkodliwa.

- Kwestia oceny tego, czy obecnie liczebność takich treści wpływa na samo zagrożenie, jest trudna. Bo nawet jeśli będziemy mieć jedno zdjęcie stworzone przez AI, to ono może oszukać tysiące osób. I już mamy realny efekt - wskazuje w rozmowie z GeekWeekiem.

To co mamy robić?

To pytanie jest zasadne z tego powodu, że zwykły człowiek może mu nie sprostać. Rozwój sztucznej inteligencji wskazuje na to, że w niedalekiej przyszłości szeroko dostępne narzędzia generatywnej AI mogą być na tyle zaawansowane, że tworzone przezeń treści nie da się rozróżnić z punktu zwykłego użytkownika internetu. W dużej mierze to, co może zostać zrobione, zależy zarówno od twórców narzędzi generatywnej AI, jak i platform społecznościowych, na których tworzone przezeń treści będą królować.

- To, co powinniśmy robić, to dążyć do transparentności. Aby jednakowo platformy, na których są rozpowszechniane treści na bazie sztucznej inteligencji, wymuszały oznaczenia wygenerowanych treści, ale także firmy tworzące narzędzia generatywnego AI wprowadziły rozwiązania, gdzie powstałe z wykorzystaniem ich narzędzi treści będą posiadały charakterystyczne cechy wpisane w ich strukturę. Aby ktoś, kto generuje sobie taką treść AI miał na niej np. nieusuwalny znak wodny albo pewien układ pikseli, który jasno każdemu będzie pokazywał "stworzone dzięki AI". Należy także zadbać o transparentność w zakresie przetwarzania danych, szkolenia modeli oraz stawiania im granic przy formułowaniu odpowiedzi na zapytania użytkowników - podsumowuje Aleksy Szymkiewicz.

INTERIA.PL
Dowiedz się więcej na temat: ChatGPT | Sztuczna inteligencja | Dezinformacja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy