Spreparowane dokumenty, podszywanie się pod znanych polityków, tworzenie sieci powiązanych kont i stron internetowych w różnych językach - zdaniem analityków dezinformacja przybiera nowe formy. Analizując fałszywe konta, które na początku maja usunął Facebook, zespół DFRLab odkrył zakrojoną na szeroką skalę operację dezinformacyjną, najprawdopodobniej związaną z Rosją. I choć okazała się nieskuteczna, zdaniem ekspertów "jej autorzy bez wątpienia już analizują swoje błędy i następnym razem będą lepiej przygotowani".
Zespół analityków DFRLab, działający przy think tanku Atlantic Council, opublikował raport analizujący siedem modeli dezinformacji w ramach operacji nazwanej Secondary Infection (ang. wtórna infekcja), przygotowany m.in. na bazie informacji dostarczonych przez Facebooka. Platforma na początku maja usunęła kilkanaście kont i cztery strony, a także profil na Instagramie, które miały swoje korzenie w Rosji, a które prowadziły działania dezinformacyjne. Analitycy DFRLab badając te konta odkryli większą sieć i kampanię dezinformacyjną.
Prowadzona ona była w dziewięciu językach, na ponad 30 platformach społecznościowych i blogowych i zdaniem analityków była naznaczona "obsesją sekretności", a także zorganizowana przez "wyrafinowaną i posiadającą dobre zasoby organizację, być może agencję wywiadowczą".
Kłamstwa i podsycanie nastrojów
Wśród strategii dezinformacyjnych kampanii były:
kłamstwa i fałszerstwa,
wykorzystywanie podziałów w Irlandii,
podsycanie antyimigranckich nastrojów w Niemczech,
ataki wymierzone w Ukrainę
ataki wymierzone w wybory do Parlamentu Europejskiego,
działania pod obcą flagą w Wenezueli
oraz wzmacnianie prokremlowskich narracji.
Jak twierdzą autorzy raportu, celem operacji było osłabienie stabilności i podważenie interesów Zachodu. Wykorzystano w niej szereg znanych już prokremlowskich narracji, które miały zaostrzyć napięcia między sojusznikami NATO (zwłaszcza między USA a Europą), podsycać konflikty na tle rasowym i politycznym wzdłuż istniejących linii podziału (zwłaszcza w Irlandii Północnej), jak i pobudzać obawy przed migracją (przede wszystkim w Niemczech). Duża część fałszywych narracji atakowała także Ukrainę.
Wpływ tej kampanii dezinformacyjnej okazał się niewielki - zdecydowana większość nieprawdziwych historii, które zostały wyprodukowane, nie zyskała znaczącej popularności w mediach społecznościowych, nie zostały one także podjęte przez popularne portale internetowe.
Autorzy raportu podkreślają, że nie mają bezpośrednich dowodów, że za kampanią dezinformacyjną stała Rosja, jednak m.in. analiza kontekstualna czy lingwistyczna dalece takie jej źródło uprawdopodabniają. Fałszywe wpisy były przygotowywane, zdaniem analityków, przez osoby rosyjskojęzyczne - świadczą o tym m.in. błędy gramatyczne, niepoprawne używanie słów i tłumaczenie rosyjskich idiomów 1:1.
Jak podsumowuje raport zespół EUvsDisinfo, Secondary Infection jest przykładem tego, jak Kreml i inne podmioty zmieniają swoje techniki manipulacji, tak aby obejść nowe mechanizmy zabezpieczeń przed dezinformacją wprowadzane przez rządy czy serwisy internetowe.
Sowieckie modele
Nazwę operacji, o której pisze DFRLab, wybrano ze względu na jej podobieństwo do sowieckiej kampanii dezinformacyjnej Infektion, prowadzonej przez KGB w latach 80., która miała przekonać opinię publiczną, że USA stworzyło wirusa HIV/AIDS. Jej celem było m.in. dyskredytowanie Stanów Zjednoczonych i generowanie antyamerykańskich sentymentów na świecie. KGB chciało także ograniczyć kontakty Rosjan z Amerykanami, w tym turystami, dyplomatami czy biznesmenami.
Do kampanii tej wykorzystano wówczas raport wschodnioniemieckiego biofizyka, który został odrzucony przez większość zachodniego środowiska naukowego. Mimo to jego fragmenty i sugestie o amerykańskim sprawstwie w powstaniu wirusa zaczęto przemycać do odległych ZSRR mediów, m.in. w Afryce i południowej Azji.
Ukrywano prawdziwe źródło kampanii dezinformacyjnej - sugerowano, że pierwsze o stworzeniu przez USA wirusa HIV pisały media w Indiach. Następnie, po kilkunastu miesiącach, taka informacja pojawiła się i w ZSRR - "wyprano" ją wówczas radzieckimi kanałami. Wzmacniano jej oddziaływanie w mediach, uwiarygadniano przekaz, aż do momentu, gdy stała się wystarczająco przekonująca, by i redakcje na Zachodzie zaczęły podawać ją jako rzetelną albo co najmniej potencjalnie wiarygodną informację.
Wykryta w maju tego roku Secondary Infection opierała się na podobnym mechanizmie. Rozsiewano wiele fałszywych historii na różne tematy, opierając je na spreparowanych dokumentach lub innych zmanipulowanych treściach (np. fałszywe posty na Twitterze rzekomego autorstwa znanych polityków), multiplikowano je także w różnych językach.
W Internecie takie spreparowane treści publikowane były przez fałszywe konta, głównie na stronach o marginalnym zasięgu, ale także na bardziej znanych platformach, takich jak Medium czy Reddit, gdzie także tworzono fałszywe profile, które rozsiewały nieprawdziwe treści.
Wykorzystane konta charakteryzowały się bardzo krótkim okresem funkcjonowania. DFRLab przypuszcza, że powstawały wyłącznie w celu opublikowania konkretnej informacji. Zdaniem analityków taka taktyka zmniejszała szanse ujawnienia osób stojących za dezinformacją i powiązania ich działań z innymi akcjami dezinformacyjnymi.
Po opublikowaniu, treści były udostępniane przez kolejną grupę fałszywych kont na Facebooku.
Jedną z rozpowszechnianych historii oparto na fałszywym tweecie amerykańskiego senatora Marco Rubio. Miał on we wpisie, który w formie zrzutu ekranu krążył w różnych miejscach sieci, oskarżyć brytyjską służbę specjalną GCHQ o plany wykorzystania technologii deepfake podczas amerykańskich wyborów środka kadencji, tak by pomóc demokratom.
Krążący po sieci fałszywy tweet zaczął się pojawiać na niszowych stronach internetowych na całym świecie, aż w końcu zyskał dostateczną wiarygodność i opisała go redakcja internetowa RT Deutsch w tekście "Amerykański senator Marco Rubio przestrzega przed wtrącaniem się Wielkiej Brytanii w wybory".
fałsz
Nie jest jasne, czy RT - należąca do rosyjskiego rządu - wiedziała, że tweet był fejkiem. Kiedy 19 czerwca 2019 roku Marco Rubio oznajmił za pośrednictwem Twittera, że zrzut ekranu był fałszywy, redakcja RT dodała do oryginalnego artykułu komentarz: "Senator Rubio zaprzecza w tweecie z 19 czerwca 2019 r., że napisał powyższy tweet z 30 lipca 2018 r."
Fałszywe listy
Ten sam wzór działania zastosowano w kilku innych przypadkach, gdzie wykorzystano polaryzujące tematy politycznie oraz teorie spiskowe przemawiające do skrajnej prawicy. DFRLab opisuje list rzekomo napisany przez hiszpańskiego ministra spraw zagranicznych Josepa Borrella, 2 lipca 2019 r. nominowanego na szefa unijnej dyplomacji. Jego kopia krążyła w mediach społecznościowych latem 2018 r.
Czytamy w nim, że "radykalni przeciwnicy Brexitu" planują zabójstwo Borisa Johnsona, aby uniemożliwić mu zostanie premierem. Fałszywka została najpierw udostępniona na Facebooku, a następnie w hiszpańskojęzycznym artykule umieszczonym na kilku różnych stronach internetowych. Później na Medium opublikowano jego angielskie tłumaczenie, a to udostępniono na forach internetowych.
Każde z kont, które udostępniło te treści było fałszywe. Nieprawdziwy był też sam list, w którym błędnie zapisano nazwisko hiszpańskiego polityka - podpisany był on pod dokumentem jako Borrel, zamiast Borrell.
fałsz
Ostatnie wybory do Parlamentu Europejskiego również były celem Secondary Infection. Aby wypromować antyunijną narrację o "liberalnych siłach" w UE, "rozpoczynających wojnę z prawicą", ponownie wyprodukowano nieprawdziwe "źródło". Tym razem był to list w języku szwedzkim rzekomo napisany przez europarlamentarzystkę, w którym miała nawoływać do "zdecydowanej i zgodnej" współpracy pomiędzy europejskimi liberałami i konserwatystami przeciwko skrajnej prawicy.
Każda z tych historii została opublikowana i rozpowszechniona przy użyciu tej samej trzystopniowej wirusowej metody:
1) umieszczanie fałszywych informacji w Internecie,
2) powielanie ich w różnych językach za pomocą licznych kont stworzonych specjalnie w tym celu,
3) promowanie tych treści na Facebooku.
Rasizm się sprawdził
Większość zmyślonych w ramach kampanii treści nie uzyskała popularności, a co za tym idzie - wpływu. DFRLab zwraca uwagę na jeden tylko przypadek, który okazał się naprawdę skuteczny. Opierał się on na publikacji i dystrybucji treści o charakterze rasistowskim.
Do tej strategii dezinformacyjnej wykorzystano m.in. twitterowe i facebookowe konta, które rzekomo były prowadzone przez młodą Ukrainkę, mieszkającą w Niemczech. Konta publikowały treści po rosyjsku, ukraińsku i niemiecku - wiele z nich miało charakter polityczny, antyestablishmentowy i antyimigrancki. Krytykowały ukraińskiego prezydenta Petra Poroszenkę, wykazywały zrozumienie dla rosyjskiej obecności na Krymie, nazywały media "kłamcami", a także pisały, że "bardzo wielu" uchodźców to kryminaliści. W części wpisów oznaczano polityków niemieckiej AfD.
11 grudnia 2018 r. konto to zamieściło kilkukrotnie - wraz z komentarzem negatywnym wobec uchodźców - tekst opublikowany na niemieckim forum dyskusyjnym. Twierdził on, że istnieje "przewodnik dla migrantów", w którym tłumaczy się im, ile pieniędzy mogą dostać od niemieckiego państwa i podpowiada jak mogą unikać kar za różne przestępstwa, w tym za wykorzystywanie seksualne kobiet.
Analitykom DFRLab nie udało się odnaleźć takiego przewodnika, a rzekome zdjęcia jego okładki z napisami w języku arabskim były pełne błędów. Informacje o rzekomym istnieniu przewodnika pojawiły się w tym czasie na kilku niemieckojęzycznych i anglojęzycznych forach.
Zarówno wpisy na tych forach, jak i tweety rzekomej Ukrainki podchwycił niemiecki prawicowy, antyimigracyjny portal, który wykorzystał je do przygotowania artykułu na temat przewodnika. Tekst uwiarygadniający jego istnieje został opublikowany w mediach społecznościowych ponad 3,5 tys. razy, wywołując falę antyuchodźczych i rasistowskich komentarzy.
"Doskonalą swoje metody manipulacji"
Raport DFRLab ocenia, że nadrzędnym celem operacji była rozpoczęta w latach 2014-2015 promocja prokremlowskiej polityki zagranicznej, skupiającej się przede wszystkich na negatywnych informacjach o Ukrainie i krajach zachodnich.
Skala operacji, jej zaawansowanie i złożoność wskazują na wysoki stopień organizacji przedsięwzięcia, co może sugerować, że była prowadzona przez dobrze przygotowaną, profesjonalną strukturę - zdaniem analityków z dużym prawdopodobieństwem przez Rosję.
Zwracają oni jednak uwagę, że nigdy wcześniej nie widzieli "operacji, w którą włożono tyle wysiłku, z tak małym efektem".
Jak pisze jednak EUvsDisinfo, porażka Secondary Infection nie daje powodu do świętowania. "Po pierwsze, mamy do czynienia z dobrze przygotowanymi aktorami - na pewno z Rosją, a prawdopodobnie także z innymi – którzy poświęcają czas i środki, aby doskonalić swoje metody manipulacji cyfrowej, a w szczególności umiejętność skutecznego ukrywania się. To, że ta konkretna operacja została wykryta, nie oznacza, że następnym razem będziemy mieli tyle szczęścia. Co więcej, jej autorzy bez wątpienia już analizują swoje błędy i następnym razem będą lepiej przygotowani", piszą autorzy portalu prowadzony przez unijny zespół zadaniowy East StratCom Task Force,.
Autor: Gabriela Sieczkowska / Źródło: Konkret24; TVN24; DFRLab; EUvsDisinfo; Zdjęcie tytułowe: TVN24