Facebook poinformował o usunięciu setek kont, których administratorzy złamali reguły serwisu. Chodzi między innymi o tworzenie fikcyjnych kont, rozsyłanie spamu czy treści mogących wprowadzać w błąd, głównie na temat wydarzeń w USA. Na niektórych kontach wykorzystano zdjęcia profilowe wygenerowane przez sztuczną inteligencję.
Facebook poinformował 20 grudnia o usunięciu 610 kont, 89 stron, 156 grup i 72 kont na Instagramie, administrowanych z Wietnamu i Stanów Zjednoczonych. Na profilach pojawiały się m.in. treści związane z aktualnymi wydarzeniami politycznymi w USA. Osoby odpowiedzialne za ich zamieszczanie miały wielokrotnie łamać standardy społeczności Facebooka. Chodziło o tworzenie fałszywych kont, rozsyłanie spamu czy treści mogących wprowadzić odbiorców w błąd.
Specjaliści od bezpieczeństwa w sieci zwrócili uwagę, że przy tworzeniu niektórych fałszywych kont jako zdjęcia profilowe wykorzystano nieprawdziwe, sztucznie wytworzone obrazy. Do ich stworzenia użyto oprogramowania opartego na sztucznej inteligencji.
Dezinformacja ze źródłem w Wietnamie?
Jak informuje Facebook, usunięte strony śledzono na platformie łącznie z około 55 mln kont. Z ponad 380 tys. dołączono do co najmniej jednej z usuniętych grup. 92 tys. osób obserwowało jedno lub kilka usuniętych kont na Instagramie. Na reklamy w ramach zidentyfikowanej sieci wydano równowartość ok. 9,5 mln dolarów.
Działania były skoncentrowane na rozpowszechnianiu treści ze stron internetowych amerykańskiej grupy medialnej The BL (skrót od "The Beauty of Life" - ang. Piękno Życia). Ich odbiorcami były przede wszystkim osoby przebywające w Stanach Zjednoczonych. Niektóre treści były także ukierunkowane na użytkowników serwisu na całym świecie, posługujących się językami wietnamskim, hiszpańskim i chińskim.
Dziennikarze amerykańskiego portalu fact-checkingowego Snopes, którzy przyglądali się tej grupie zanim Facebook podjął oficjalne kroki, odkryli że większość jej działań prowadzona była z Wietnamu. Prof. Joshua Tucker z Uniwersytetu Nowojorskiego w rozmowie ze Snopsem zasugerował, że prawdopodobnie nie chodziło tu o bezpośrednie wpływanie na amerykańską politykę, jak to często ma miejsce w przypadku dezinformacji prowadzonej z obcego kraju, a raczej o generowanie zysków bądź działalność "na rzecz kogoś, kto im za to płaci". Wietnamskie źródła dezinformacji potwierdził też sam Facebook, informując, że działania prowadzone w ramach zlikwidowanych profili były powiązane z Epoch Media Group i z osobami pracującymi dla tej firmy w Wietnamie. W oświadczeniu Epoch Media Group odpiera zarzuty o związki z osobami podejmującymi działania niezgodne z regulaminem.
Fałszywe konta i zdjęcia profilowe
We wpisie na blogu korporacyjnym, Nathaniel Gleicher odpowiedzialny za politykę bezpieczeństwa Facebooka podkreśla, że wiele podejrzanych aktywności zostało zidentyfikowanych przez algorytmy platformy. "Osoby odpowiedzialne za te działania szeroko wykorzystywały fałszywe konta" - informuje Gleicher.
Konta były wykorzystywane do automatycznego zamieszczania treści odsyłających użytkowników Facebooka do innych serwisów. Aby zmylić narzędzia do weryfikowania treści, obok fałszywych kont, udających Amerykanów, wykorzystywano również autentyczne konta istniejących osób przebywających w Stanach Zjednoczonych.
Profile i strony publikowały głównie memy i inne treści skupiające się na wiadomościach dotyczących Stanów Zjednoczonych, w tym impeachmentu, kandydatów na prezydenta, wyborów prezydenckich w 2020 r. i handlu. Odnosiły się przede wszystkim do wartości konserwatywnych, rodzinnych i religijnych.
Uwagę ekspertów do spraw bezpieczeństwa wzbudziły zdjęcia profilowe wykorzystane przy tworzeniu fałszywych kont. Niektóre z nich zostały wygenerowane przy użyciu specjalistycznego oprogramowania.
"Część profili wykorzystywało zdjęcia wygenerowane przez sztuczną inteligencję i udawało amerykańskie pochodzenie w celu dołączania do grup i zamieszczania treści BL" - napisał Nathaniel Gleicher.
fałsz
Snopes zwraca uwagę, że zanim Facebook usunął fałszywe profile i strony, platforma była informowana przez redakcję o działalności sieci BL. Dziennikarze oceniają, że treści, którymi się ona dzieliła na Facebooku, docierały do ok. 28 mln - w większości realnie istniejących - osób. Podnoszą także, że Facebook podjął swoje działania za późno - na miejsce automatycznie usuwanych fałszywych profili szybko powstawały nowe, także wykorzystujące zdjęcia wygenerowane przez sztuczną inteligencję.
"Zdjęcia osób, które nigdy nie istniały"
Sprawę opisano również we wspólnym raporcie firmy Graphika, zajmującej się m.in. analizą mediów społecznościowych, oraz Digital Forensics Research Lab. DFRLab to zespół analityków działający przy think tanku Atlantic Council w Waszyngtonie. Grupa śledzi wydarzenia na świecie i ich relacjonowanie w mediach społecznościowych.
Zgodnie z informacjami zawartymi w raporcie, niektóre zdjęcia profilowe kont przynależących do usuniętej sieci zostały wygenerowane za pomocą algorytmów tzw. generative adversarial networks (GAN), wykorzystywanych również przy generowaniu nagrań deep fake. Algorytmy bazują na dwóch sieciach, które w procesie analizy danych zawartych w materiale źródłowym dążą do wygenerowania zestawu nowych danych - np. fałszywego obrazu. "To były zdjęcia osób, które nigdy nie istniały" - napisano w raporcie Graphika i DFR Lab.
Autorzy opracowania wskazują, że technologia wytwarzania fałszywych obrazów jest dostępna od ok. 2014. W lutym 2019 r. stała się dostępna dla każdego. W sieci pojawił się wówczas serwis pozwalający na generowanie fałszywych portretów. Jak tłumaczył autor narzędzia Phillip Wang, stworzył je, by "podnieść publiczną świadomość na temat tej technologii". Zdjęcia z serwisu trudno wykryć m.in. poprzez podstawową technikę do weryfikacji zdjęć, czyli odwrócone wyszukiwanie obrazem, gdyż bardzo często są unikatowe. Są wykorzystywane w różnych celach, w tym do tworzenia fałszywych profili w serwisach społecznościowych. Eksperci Graphiki i DFR Lab nie potwierdzili jednak, czy członkowie grupy zidentyfikowanej przez Facebooka korzystali z narzędzia.
Jak rozpoznać fałszywkę?
Autorzy raportu podkreślają, że przypadek sieci The BL jest pierwszym przez nich napotkanym, w którym wykorzystano sztucznie wygenerowane obrazy w kampanii prowadzonej w mediach społecznościowych.
Mimo znacznego zaawansowania algorytmów GAN, niektóre z obrazów użytych jako zdjęcia profilowe zdradzają, że mamy do czynienia z fałszywką. Autorzy raportu przytaczają przykład fotografii jednego z administratorów grupy zidentyfikowanej jako część sieci ujawnionej przez Facebooka. Asymetryczne elementy okularów zdradzają, że niemal z pewnością obraz został sztucznie wytworzony.
fałsz
Analizując, czy zdjęcie profilowe jest prawdziwe czy fałszywe zwrócono również uwagę na nietypowe cechy postaci oraz tło. Na fotografii przedstawiającej jedną z administratorek grupy zidentyfikowanej przez Facebooka widać nietypowy kształt szyi i zniekształcone elementy tła.
fałsz
Zniekształcenia tła widoczne są również na obrazie przedstawiającym mężczyznę, również admina jednej z grup.
Jak pisaliśmy już w Konkret24, choć technologia generowania zdjęć z użyciem AI jest udoskonalana, nadal zdarza się, że włosy takich sztucznie stworzonych osób bywają na fotografiach nieregularne i nienaturalne, czasem jakby namalowane (zwłaszcza długie proste włosy), czasem są niezbyt ostre, a wręcz wtapiają się w twarz (np. na czołach czy pod kością policzkową przy uchu).
Technologia, która budzi niepokój
Autorzy raportu dotyczącego zidentyfikowanej dezinformującej sieci na Facebooku zwracają uwagę, że przy tworzeniu fałszywych profili popełniano błędy, np. dwukrotnie używano tego samego zdjęcia przy tworzeniu fałszywych konta, czy błędnie je podpisywano (np. zdjęcie kobiety podpisano męskim imieniem).
Bardziej zaawansowane techniki analizy, np. wykorzystywana w kryminalistyce do analizy zdjęć analiza poziomu błędów (ELA) pozwalają na dostrzeżenie różnic w kompresji różnych elementów obrazu.
"Łatwość z jaką wygenerowano tak wiele sztucznych obrazów w celu wykorzystania fałszywych profili z (najczęściej) przekonującymi twarzami budzi niepokój" - podsumowują autorzy raportu. Eksperci podkreślają konieczność prac nad skuteczniejszym identyfikowaniem fałszywych obrazów i automatyzacji tego procesu.
Autor: kjab / Źródło: Konkret24; zdjęcie tytułowe: Shutterstock
Źródło zdjęcia głównego: Shutterstock