HAKERZY KONTRA POLACY

Podwyższony stan zagrożenia wojennego? To "tylko" szkodząca dezinformacja

“W związku z podwyższonym stanem zagrożenia wojennego, oraz po wstępnej analizie Pana kompetencji prosimy o wstawienie się w dniu 25.02.2022 w komisji Centralnej WKU przy ulicy Marii Konopnickiej 5 w Rzeszowie”. Smsy takiej treści (tak, włącznie ze “wstawieniem się”), tuż po wybuchu wojny w Ukrainie zaczęli otrzymywać mieszkańcy wschodniej Polski.

Żadnej mobilizacji, rzecz jasna, nie było. SMS-owa akcja była jedną z wielu prób wprowadzenia zamętu. Przez kogo - nie wiadomo. Ale szukając sprawcy trudno nie patrzeć na wschód. 

Żaden kraj nie ma tyle doświadczenia w prowadzeniu działań dezinformacyjnych w sieci. FSB parało się internetową propagandą jeszcze w zamierzchłych latach 90, kiedy to jeden z attaché rosyjskiej ambasady w Waszyngtonie został przyłapany na tym, że chadzał do kawiarenek internetowych, by publikować na forach dezinformację dotyczącą wojny w Czeczenii. 

Ale Rosja dawno już nie jest na tym froncie jedynym graczem, ani nawet największym. Według raportu Uniwersytetu Oksfordzkiego, sieciową dezinformacją para się już ponad 80 krajów. Najaktywniejszym z nich mają dziś być Chiny. Sieć stała się największym na świecie targowiskiem propagandy. A o twoją głowę walczą niemal wszyscy. Co najmniej 65 firm świadczy rządom i korporacjom kompleksowe usługi w zakresie dezinformacji i propagandy. Zgarniają już blisko 100 mln dol. rocznie

Reklama

Powód jest prosty. Cyberpropaganda jest stosunkowo tania - i całkiem skuteczna. Nie ma innego narzędzia, które siewcom dezinformacji pozwalałoby natychmiast dotrzeć do milionów odbiorców. 

Farmy trolli to niejedyne zagrożenie

Dezinformacja online to nie tylko “Farmy trolli", choć pełnią one kluczową rolę. A raczej dwie. Mają oszukiwać algorytmy i nasze własne mózgi, wykorzystując efekty znane psychologii społecznej. Algorytmy - bo sztuczna “inteligencja" zakłada, że im więcej ludzi przesyła dalej lub reaguje na jakiś post, tym najwyraźniej jest ciekawszy i przekazują go dalej w nadziei na to, że kolejni użytkownicy też się nim zainteresują.  Ludzie - bo w kwestiach, w których nie mamy mocno wyrobionego zdania, mamy tendencję do podążania za głosem większości. Wystarczy, żeby pod kontrowersyjnym tematem pojawiał się tłum komentatorów wykrzykujących argumenty jednej strony, by zasiać wątpliwości. 

Taktyk i technik stosowanych w sieciowej dezinformacji jest mnóstwo, a galopujący rozwój generatywnej sztucznej inteligencji sprawia, że internetowe kłamstwa przechodzą błyskawiczną ewolucję. Kilka sztuczek jest jednak prawdziwymi “evergreenami".

Po pierwsze, dezinformacja jest urozmaicona. Jej twórcy tworzą różne przekazy dla różnych odbiorców. W przypadku kampanii prowadzonych przez Rosję, te same strategiczne cele będą realizowane przy pomocy osobnych przekazów dla Rosjan i nie-Rosjan, dodatkowo modyfikowanych w zależności od tego, do jakiej części świata mówi nadawca. Bo nie wszystko sprzedaje się równie dobrze wszędzie. 

Przekaz dezinformacyjny jakoby UE zamieniała ludzi w homoseksualistów lub przestępców seksualnych zostałby uznany za absurdalny w Europie Zachodniej, ale może przekonać część odbiorców z krajów oddalonych od UE. Z drugiej strony, dla tych odbiorców prawdopodobnie uznałaby za nieprawdopodobny przekaz, że Ukrainą przewodzą politycy o przekonaniach faszystowskich - a odbiorcy na Zachodzie, którzy Ukrainę ledwie są w stanie wskazać na mapie, mogą się na to złapać. Komunikaty są różnicowane w zależności od regionów, ale także dla różnych grup społeczno-ekonomicznych, w zależności od ich wieku, wykształcenia, dochodów, statusu i zawodu. 

Kampania ma różne cele taktyczne i zadania dla różnych odbiorców. Może przedstawiać teorie spiskowe publiczności, która jest gotowa skonsumować takie spiski. Będzie grać na nastrojach prorosyjskich i antyzachodnich w jednym społeczeństwie, a w innym wykorzystywać problemy lokalnych mniejszości narodowych lub emocje antyniemieckie/pan-słowiańskie. Podsyci histerię i polaryzację poprzez agresywne przekazy antyuchodźcze lub prouchodźcze (albo anty-LGBT i pro-LGBT, czy w jakiejkolwiek innej kwestii wywołującej podziały), aby przekonać obie strony, że ci po drugiej stronie stanowią egzystencjalne zagrożenie.

Ale co jest ostatecznym celem? Tu zaczyna się prawdziwa zabawa.

Na pewno słyszeliście te historie. W mediach była z nich beczka śmiechu. “Ukraińcy chcą rozsiewać amerykańskie wirusy za pomocą wędrownych ptaków" zapewniały rosyjskie media. “Papież Franciszek poparł Donalda Trumpa". “Saudyjscy naukowcy wreszcie zaliczyli kobiety do ssaków". Podobne absurdalne nagłówki krążą od lat po wszystkich mediach społecznościowych. 

Ale ich rola jest o wiele poważniejsza, niż mogłoby się wydawać. Są głupie, nieprawdopodobne, śmiechu warte. Dla propagandystów - bezcenne

To część strategii, którą badacze amerykańskiego think-tanku RAND Corporation w 2016 roku nazwali “hydrantem kłamstw". Nie chodzi o to, by kogokolwiek do czegokolwiek przekonać. Trzeba byłoby być wyjątkowym przypadkiem by uwierzyć w którekolwiek z tych twierdzeń. Celem nie jest perswazja. Jest nim dezorientacja. 

Hydrant ma cztery aspekty. Sieje kłamstwa szerokim strumieniem na wielu równoległych kanałach. Jest szybki, stały i powtarzalny. Nie ma żadnego odniesienia do obiektywnej rzeczywistości. Nie ma też żadnych pretensji do wewnętrznej spójności. Jedno kłamstwo może zaprzeczać drugiemu. 

Rosja daje zły przykład

Mimo to, ta strategia okazała się niezwykle skuteczna. Rosja stosuje ją od 2008 r. i inwazji na Gruzję. 

Bezpośrednim celem jest zabawianie, dezorientacja i przytłoczenie publiczności. Sfera informacyjna jest zalana taką ilością kłamstw, że odnalezienie prawdy staje się poważnym problemem, na który większości odbiorców po prostu nie wystarczy czasu. Brodząc w morzu bełkotu, odbiorcy zaczynają wątpić w to, czy jakaś obiektywna prawda w ogóle istnieje. Sukces tego podejścia podważa konwencjonalny pogląd, że komunikacja jest bardziej przekonująca, gdy jest prawdziwa, wiarygodna i niesprzeczna.

Kolejna techniką jest podszywanie się pod wiarygodne źródła. Kiedy liberalny, brytyjski Guardian, drukuje tekst podający w wątpliwość rosyjskie zbrodnie wojenne na Ukrainie - coś jest nie tak. Podobnie, gdy włoska agencja prasowa ANSA wydrukowała tekst krytykujący Ukrainę za to, że w środku wojny magazynuje potrzebne na świecie zboże. Mimo to newsy te były szeroko rozsyłane na Facebooku i Twitterze. 

Tyle, że to nie był Guardian ani ANSA. To była największa kampania fake newsów wymierzona przez Rosję w UE. Meta, która wykryła operację, nadała jej kryptonim “Doppelganger". Operacja opierała się na sieci kilkunastu stron podszywających się pod prawdziwe media, takich jak Der Spiegel, The Guardian, ANSA czy Bild, które rozpowszechniały teksty i materiały wideo sprzedające widzom skrajnie prorosyjski punkt widzenia na wojnę. 

"Stworzyli bardzo wyszukane fałszywe strony i próbowali zalać tymi treściami tyle platform, ile byli w stanie" mówił Politico Ben Nimmo, szef zespołu rozpoznawania globalnych zagrożeń META. Ktokolwiek stał za akcją, wydał ponad 100 tys. dol. na reklamy na Facebooku i Instagramie. 

“Odkryliśmy liczne tropy prowadzące do Rosji" mówi dyrektor wykonawczy EU Disinfo Lab Alexandre Alaphilippe. “Ustaliliśmy też, że wykorzystana w tej operacji infrastruktura znajdowała się w Europie". 

Najgorsze przed nami? Na horyzoncie AI

Ale nic nie budzi takiego zaniepokojenia specjalistów od zwalczania propagandy, jak potencjał, który dezinformatorom dają narzędzia AI. Pierwsze ostrzeżenia pojawiły się już w 2017 r., kiedy anonimowy programista udostępnił w sieci narzędzia pozwalające cyfrowo podmieniać twarze na nagraniach każdemu z minimalną informatyczną wiedzą. To było pierwsze narzędzie do tzw. deepfake’ów. 

Choć od razu było jasne, że mogą one stać się narzędziem dezinformacji, zaskakujące może być to, że w polityce niemal nie zaistniały aż do tego roku. Zamiast tego były stosowane głównie przez pornografów-amatorów. 

Ale jesienią tego roku sfabrykowane nagranie - audio, nie wideo, wstrząsnęło sceną polityczną europejskiego kraju. Tuż przed wyborami na Słowacji, w ciszy wyborczej, słowiackiego Whatsappa obiegło nagranie, na którym lider partii Progresywna Słowacja miał omawiać ze znaną dziennikarką szczegóły wyborczych przekrętów. W ciszy nikt nie mógł zaprzeczyć kłamstwom. Progresywna Słowacja wybory przegrała. 

A to nie jedyny skutek, jaki na politykę mogą wywierać narzędzia AI. Drugim jest tzw. “dywidenda kłamcy" - skoro wszyscy wiemy, że każde nagranie może być sfabrykowane, przyłapany na gorącym uczynku polityk może po prostu mówić “to nie ja" i znaczna część elektoratu uwierzy mu na słowo. 

Politycy nie pomagają?

Albo przeciwnie - polityk może w najlepszej wierze opublikować nagranie, które stanie się iskrą, która z niczego wywoła pożar. To spotkało Ali Bongo Ondimbę, prezydenta Gabonu. W 2019 r. zachorowało mu się podczas wyprawy do Arabii Saudyjskiej. Kraj obiegły plotki, że zmarł. Gdy prezydent zamieścił orędzie, które miało zaprzeczyć plotkom, gminna plotka stwierdziła, że jest ono deepfakiem. Skutek - wojsko postanowiło dokonać puczu by odsunąć od władzy intruza. Pucz się nie powiódł, ale wstyd pozostał. Deepfakeów nie trzeba nawet wykorzystywać, by osiągnąć skutek. Wystarczy sama hipotetyczna możliwość ich wykorzystania. 

Przyszłość będzie pod tym względem tylko groźniejsza. Katerina Sedova z Uniwersytetu Georgetown, opublikowała raport, w którym przestrzega  przed dezinformacyjną katastrofą. Coraz prostsze i powszechniejsze narzędzia pozwalają na prowadzenie kampanii propagandowych coraz taniej i na coraz większą skalę. Badacze przewidują, że nowym kanałem dezinformacji będą nie posty w mediach społecznościowych, ale czatboty prowadzące dynamiczne rozmowy z konkretnymi użytkownikami. 

A zasadniczy problem polega na tym, że fatalnie radzimy sobie z odróżnianiem fejków od rzeczywistości. Dwa lata temu zespół Sophie Nightingale z brytyjskiego Lancaster University i Hany’ego Farida z Uniwersytetu Kalifornijskiego w Berkeley sprawdził, czy 300 badanych potrafi wskazać, czy pokazywane im twarze są prawdziwe, czy wygenerowane cyfrowo. Trafność wskazań wynosiła 48 proc., czyli większość uczestników zgadywała. Kiedy uczestników eksperymentu poproszono o wskazanie, które z prezentowanych twarzy budzą w nich zaufanie, twarze wygenerowane przez algorytm wskazywano 8,8 proc. razy częściej. 

Bardziej ufamy ludziom, którzy nie istnieją.

INTERIA.PL
Dowiedz się więcej na temat: Dezinformacja | fake news
Reklama
Reklama
Reklama
Reklama
Reklama