Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Podczas wyborów środka kadencji (ang. midterm elections) w Stanach Zjednoczonych w 2018 r. nie stwierdzono szczególnej aktywności rosyjskiej dezinformacji. Nie ma jednak gwarancji, że Rosja i inne kraje powstrzymają się przed ingerowaniem w wybory prezydenckie w 2020 r. - można przeczytać w raporcie "Dezinformacja i wybory 2020. Jak branża mediów społecznościowych powinna się do nich przygotować", opublikowanym na początku września.

Raport powstał w Stern Center for Business and Human Rights na Uniwersytecie Nowojorskim, przygotowującym zalecenia z zakresu praw człowieka na potrzeby firm i przedsiębiorców.

Opracowanie wskazuje podstawowe źródła i modele dezinformacji w mediach społecznościowych podczas kampanii przed wyborami prezydenckimi w Stanach Zjednoczonych w 2020 r. Zawiera też wskazówki dotyczące obrony przed tymi mechanizmami dla branży mediów społecznościowych.

Przypadek Nancy Pelosi

Jako przykład mechanizmu dezinformacji, który może rozwinąć się w najbliższych miesiącach, raport wymienił zmanipulowane nagranie wystąpienia Nancy Pelosi, które wiosną opublikowano na jednym z facebookowych fanpage'y z konserwatywnymi treściami.

Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami
Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami Foto: facebook

Prawdziwe nagranie spowolniono do ok. 75 proc. Dodatkowo edycji został poddany głos Pelosi, by brzmiał naturalnie. W komentarzach pod tak zmanipulowanym nagraniem pojawiły się pytania, czy kongresmenka nie jest pod wpływem alkoholu. Internauci kwestionowali również jej profesjonalizm i przygotowanie do wystąpienia publicznego.

Oryginalne nagranie wystąpienia Nancy Pelosi podczas konferencji Center for American Progress wyglądało jednak zupełnie inaczej. Jej wypowiedź była spójna i klarowna, a mowa ciała nie sugerowała niedyspozycji. Po nagłośnieniu sprawy w mediach Facebook nie zdecydował się na usunięcie nagrania. Obniżono jego zasięgi i powiązano z publikacjami ostrzegającymi, że materiał został zweryfikowany jako fałszywy. Obecnie wideo nie jest już dostępne w sieci.

Deep fake

Żywiołowe reakcje na prostą manipulację z wykorzystaniem wizerunku Nancy Pelosi wskazują na olbrzymi dezinformacyjny potencjał materiałów wideo zamieszczanych w sieci. Raport New York University akcentuje możliwość wykorzystania technologii deep fake do przygotowania sfabrykowanych nagrań wideo, w których kandydatom w wyborach przypisywano by nieprawdziwe wypowiedzi i zachowania.

Deep fake to sfałszowany materiał stworzony przy pomocy oprogramowania wykorzystującego sztuczną inteligencję. Algorytmy generative adversarial networks (GAN) bazują na dwóch sieciach. Jedna analizuje wprowadzone dane - cechy powtarzające się w zdjęciach, wideo czy dźwięku - mimikę, intonację, tiki. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Na podstawie zgromadzonych informacji powstaje np. model twarzy, który jest osadzany w wyjściowym materiale.

Pierwsze materiały deepfake pojawiły się pod koniec 2017 roku. W kwietniu 2018 roku serwis Buzzfeed stworzył wideo, w którym Barack Obama nazywa prezydenta Donalda Trumpa głupkiem. W rzeczywistości zdania wypowiadał reżyser Jordan Peele, a postać Obamy była wygenerowana na podstawie istniejących nagrań. Deepfake tworzono też z twarzami Władimira Putina, Donalda Trumpa czy Nicholasa Cage'a.

Raport NYU zwraca uwagę, że dostępne w sieci narzędzia wykorzystujące sztuczną inteligencję "demokratyzują" możliwość fabrykowania treści wideo. "Deep fake'i mogą być tworzone przez kogokolwiek z dostępem do komputera i internetu, zainteresowanego wpływaniem na wynik wyborów" - powiedział cytowany w raporcie prof. John Villasenor, ekspert inżynierii, polityk publicznych i zarządzania na Uniwersytecie Kalifornijskim.

Instagram i WhatsApp

Wśród platform mediów społecznościowych, które mogą być szeroko wykorzystywane w nadchodzącej kampanii w celu rozpowszechniania dezinformacji, raport NYU wymienił Instagram. Badacze zwracają uwagę na relatywnie wysoką liczbę użytkowników serwisu - 1 mld (w porównaniu do 2,38 mld użytkowników Facebooka, 2 mld - Youtube'a, 330 mln - Twittera).

Platforma udostępniania zdjęć i materiałów wideo jest chętnie wykorzystywana przez młode osoby znudzone Facebookiem. "Usługa oparta na udostępnianiu zdjęć sprawia, że Instagram jest wymarzoną platformą udostępniania memów" - można przeczytać w raporcie. Memy to z kolei wymarzone narzędzie do zamieszczania nieprawdziwych cytatów i innego rodzaju dezinformacji.

W raporcie wskazano na wyniki badań trwających od 2015 do 2018 r. Stwierdzono 187 milionów reakcji na treści zamieszczane na Instagramie przez rosyjską firmę Internet Research Agency, nazywaną "fabryką trolli". Na Facebooku w tym samym czasie zarejestrowano 77 mln reakcji, na Twitterze - 73 mln.

Wśród internetowych komunikatorów jako wygodne źródło rozpowszechniania sfałszowanych treści wskazano na aplikację WhatsApp. Wszystko przez szyfrowanie wiadomości wysyłanych przez komunikator, co gwarantuje anonimowość również wykorzystującym narzędzie w celu rozpowszechniania dezinformacji. Raport wskazuje na powszechne wykorzystanie komunikatora w niedawnych kampaniach przed wyborami prezydenckimi w Brazylii i w Indiach.

Dezinformacja made in America

W 2020 r. nie tylko Rosja będzie ośrodkiem rozpowszechniania dezinformacji. Jeśli utrzyma się napięcie na linii Iran-Stany Zjednoczone, to właśnie Teheran może stać się znaczącym graczem, uważają badacze. Jako potencjalne źródło rozpowszechniania dezinformacyjnych treści wymieniono również Chiny.

Raport wskazuje jednak swoim amerykańskim odbiorcom, że wewnętrzne źródła dezinformacji są poważniejszym zagrożeniem. W nadchodzącej kampanii fake newsy i manipulacje najczęściej będą miały swoje źródło właśnie w Stanach Zjednoczonych.

W kategoriach ilości, dezinformacyjne treści wytworzone w kraju przeważają nad szkodliwymi treściami pochodzącymi z zagranicznych źródeł i nieomal z pewnością będą ważnym czynnikiem podczas następnych wyborów.

Raport "Dezinformacja i wybory 2020"

Raport zwraca uwagę na trudności w rozróżnieniu ewidentnie nieprawdziwych treści od zwyczajnej politycznej ekspresji, do której prawo gwarantuje pierwsza poprawka amerykańskiej konstytucji.

"Jedną z krajowych teorii spiskowych, które mogą przyciągnąć uwagę konserwatystów w kolejnych miesiącach, jest ta dotycząca współpracy wielkich firm z branży mediów społecznościowych z demokratami w celu powstrzymania szans na reelekcję prezydenta Donalda Trumpa" - można przeczytać w raporcie.

Amerykanie, którzy uważają wskazaną kwestię za bardzo duży problem dla kraju:
Amerykanie, którzy uważają wskazaną kwestię za bardzo duży problem dla kraju: Foto: Konkret24 / NYU Stern Center for Business and Human Rights/Pew Research Center

Wśród przykładów dezinformacji stworzonej w Stach Zjednoczonych raport wymienia zarówno te wywodzące się ze środowisk konserwatywnych, jak i lewicowych. Jednocześnie grupę odbiorców konserwatywnych wskazuje jako bardziej podatną na fałszywe informacje.

Raport akcentuje również, że narzędziami wykorzystanymi w celu rozpowszechniania dezinformacji staną się profesjonalne duże firmy działające zarówno w Stanach Zjednoczonych, jak i poza ich granicami.

Jak się bronić przed dezinformacją?

Raport formułuje dziewięć zaleceń dla firm zarządzających mediami społecznościowymi i tworzących treści przeznaczone do publikacji w sieci.

Autorzy wskazują m.in. na konieczność usprawnienia procesu weryfikacji zamieszczanych materiałów wideo pod kątem wykorzystania sztucznej inteligencji. Jako właściwy kierunek wskazano też zwiększenie liczby pracowników weryfikujących treści. Materiały deep fake powinny również być usuwane najszybciej jak to możliwe, zanim zostaną masowo rozpowszechnione.

Fałszywe informacje, których nieprawdziwość da się udowodnić, powinny być usuwane. Treści, które mogą być fałszywe, należy oznaczać. Usunięte materiały powinny zostać zarchiwizowane w celu ich dodatkowej weryfikacji na życzenie użytkowników. Treści dotyczące wyborów i instytucji państwowych powinny być weryfikowane priorytetowo.

Każda instytucja powinna zatrudnić osobę nadzorującą proces weryfikacji treści. To ważne w przypadku dużych korporacji, które proces weryfikacji rozłożyły na wiele zespołów. Osoby odpowiedzialne za nadzór powinny składać raport bezpośrednio do menedżerów najwyższego szczebla.

Koordynacja obrony przed dezinformacją

Raport wskazuje na brak zrozumiałej strategii walki z fałszywymi treściami udostępnianymi na Instagramie i postuluje konieczność jego usprawnienia. Autorzy zalecają również ograniczanie zasięgu materiałów udostępnianych na WhatsAppie. Użytkownicy aplikacji powinni mieć możliwość udostępniania treści do jednej grupy na raz.

Opracowanie mówi także o konieczności identyfikacji fałszywych treści rozpowszechnianych przez duże firmy, specjalizujące się w obsłudze mediów społecznościowych. Firmy powinny również aktywnie wspierać tworzenie nowego prawa regulującego agitację polityczną i sankcjonującego nielegalny wpływ na wyborców.

Autorzy raportu zwracają też uwagę na konieczność współpracy między różnymi platformami mediów społecznościowych. W przypadku identyfikacji nieprawdziwych treści pochodzących od jednego z nadawców, należy zweryfikować udostępniane przez niego treści na innych platformach. Użytkownicy poszczególnych serwisów powinni brać aktywny udział w identyfikowaniu fałszywych treści i uzyskać w tym celu pomoc administratorów.

Autor:  kjab
Źródło:  Konkret24; zdjęcie tytułowe: Shutterstock

Pozostałe

Popularne w sieci wideo nie jest z Hongkongu. To projekt artystyczny

W mediach społecznościowych bardzo dużą popularność zyskuje krótkie wideo z wynalazkiem, który ma pomóc zmylić system rozpoznawania twarzy. Przekazujący sobie to nagranie internauci piszą, że pochodzi ono z Hongkongu. Jednak przenośny projektor twarzy to część projektu artystycznego holenderskich studentów sprzed dwóch lat. Podkreślają, że produkt tak naprawdę nie działa i apelują o niewykorzystywanie go w celach politycznych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.

Odtworzyli głos szefa firmy. Wyłudzili 243 tys. dolarów

Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Chińska aplikacja do podmieniania twarzy podbija rynek. I budzi obawy

Chińska aplikacja ZAO pozwala użytkownikom na "podmienienie" twarzy aktora w klipie z serialu lub filmu na swoją twarz. Efekt jest realistyczny i dostępny w ciągu chwili. Program budzi kontrowersje - nie tylko ze względu na swoje możliwości, ale i na politykę prywatności. Jednocześnie bije jednak rekordy popularności w Azji - w ciągu kilku dni od premiery stała się najczęściej ściąganą aplikacją.

Wyścig zbrojeń XXI wieku. Technologie deepfake coraz lepsze i groźniejsze

O deepfake jest głośno wraz z każdym takim materiałem wstawionym do sieci. Na początku sierpnia zaskoczenie zaawansowaniem tej technologii wywołał filmik, w którym komik Bill Hader zamienia się w Toma Cruise'a. Zastosowanie takich manipulacyjnych rozwiązań staje się jednak coraz groźniejsze - jedna z firm w USA miała stracić z tego powodu kilka milionów dolarów. Rząd Stanów Zjednoczonych chce stworzyć zaawansowane narzędzia do identyfikowania sfałszowanych treści pojawiających się w sieci.

Motocyklowy kask na drodze - pech czy międzynarodowy znak ostrzegawczy?

Internetowy wpis o tym, że kask położony na ziemi za motocyklem jest znakiem ostrzegawczym, wywołał sporą dyskusję w polskim internecie. Polemizował branżowy portal, replikowało jedno z motocyklowych stowarzyszeń. Pomysł na takie wykorzystanie kasku nie jest nowy, ale budzi w środowisku i wątpliwości, i kontrowersje — przesądni uważają, że kask na ziemi przynosi pecha.