Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Podczas wyborów środka kadencji (ang. midterm elections) w Stanach Zjednoczonych w 2018 r. nie stwierdzono szczególnej aktywności rosyjskiej dezinformacji. Nie ma jednak gwarancji, że Rosja i inne kraje powstrzymają się przed ingerowaniem w wybory prezydenckie w 2020 r. - można przeczytać w raporcie "Dezinformacja i wybory 2020. Jak branża mediów społecznościowych powinna się do nich przygotować", opublikowanym na początku września.

Raport powstał w Stern Center for Business and Human Rights na Uniwersytecie Nowojorskim, przygotowującym zalecenia z zakresu praw człowieka na potrzeby firm i przedsiębiorców.

Opracowanie wskazuje podstawowe źródła i modele dezinformacji w mediach społecznościowych podczas kampanii przed wyborami prezydenckimi w Stanach Zjednoczonych w 2020 r. Zawiera też wskazówki dotyczące obrony przed tymi mechanizmami dla branży mediów społecznościowych.

Przypadek Nancy Pelosi

Jako przykład mechanizmu dezinformacji, który może rozwinąć się w najbliższych miesiącach, raport wymienił zmanipulowane nagranie wystąpienia Nancy Pelosi, które wiosną opublikowano na jednym z facebookowych fanpage'y z konserwatywnymi treściami.

Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami
Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami Foto: facebook

Prawdziwe nagranie spowolniono do ok. 75 proc. Dodatkowo edycji został poddany głos Pelosi, by brzmiał naturalnie. W komentarzach pod tak zmanipulowanym nagraniem pojawiły się pytania, czy kongresmenka nie jest pod wpływem alkoholu. Internauci kwestionowali również jej profesjonalizm i przygotowanie do wystąpienia publicznego.

Oryginalne nagranie wystąpienia Nancy Pelosi podczas konferencji Center for American Progress wyglądało jednak zupełnie inaczej. Jej wypowiedź była spójna i klarowna, a mowa ciała nie sugerowała niedyspozycji. Po nagłośnieniu sprawy w mediach Facebook nie zdecydował się na usunięcie nagrania. Obniżono jego zasięgi i powiązano z publikacjami ostrzegającymi, że materiał został zweryfikowany jako fałszywy. Obecnie wideo nie jest już dostępne w sieci.

Deep fake

Żywiołowe reakcje na prostą manipulację z wykorzystaniem wizerunku Nancy Pelosi wskazują na olbrzymi dezinformacyjny potencjał materiałów wideo zamieszczanych w sieci. Raport New York University akcentuje możliwość wykorzystania technologii deep fake do przygotowania sfabrykowanych nagrań wideo, w których kandydatom w wyborach przypisywano by nieprawdziwe wypowiedzi i zachowania.

Deep fake to sfałszowany materiał stworzony przy pomocy oprogramowania wykorzystującego sztuczną inteligencję. Algorytmy generative adversarial networks (GAN) bazują na dwóch sieciach. Jedna analizuje wprowadzone dane - cechy powtarzające się w zdjęciach, wideo czy dźwięku - mimikę, intonację, tiki. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Na podstawie zgromadzonych informacji powstaje np. model twarzy, który jest osadzany w wyjściowym materiale.

Pierwsze materiały deepfake pojawiły się pod koniec 2017 roku. W kwietniu 2018 roku serwis Buzzfeed stworzył wideo, w którym Barack Obama nazywa prezydenta Donalda Trumpa głupkiem. W rzeczywistości zdania wypowiadał reżyser Jordan Peele, a postać Obamy była wygenerowana na podstawie istniejących nagrań. Deepfake tworzono też z twarzami Władimira Putina, Donalda Trumpa czy Nicholasa Cage'a.

Raport NYU zwraca uwagę, że dostępne w sieci narzędzia wykorzystujące sztuczną inteligencję "demokratyzują" możliwość fabrykowania treści wideo. "Deep fake'i mogą być tworzone przez kogokolwiek z dostępem do komputera i internetu, zainteresowanego wpływaniem na wynik wyborów" - powiedział cytowany w raporcie prof. John Villasenor, ekspert inżynierii, polityk publicznych i zarządzania na Uniwersytecie Kalifornijskim.

Instagram i WhatsApp

Wśród platform mediów społecznościowych, które mogą być szeroko wykorzystywane w nadchodzącej kampanii w celu rozpowszechniania dezinformacji, raport NYU wymienił Instagram. Badacze zwracają uwagę na relatywnie wysoką liczbę użytkowników serwisu - 1 mld (w porównaniu do 2,38 mld użytkowników Facebooka, 2 mld - Youtube'a, 330 mln - Twittera).

Platforma udostępniania zdjęć i materiałów wideo jest chętnie wykorzystywana przez młode osoby znudzone Facebookiem. "Usługa oparta na udostępnianiu zdjęć sprawia, że Instagram jest wymarzoną platformą udostępniania memów" - można przeczytać w raporcie. Memy to z kolei wymarzone narzędzie do zamieszczania nieprawdziwych cytatów i innego rodzaju dezinformacji.

W raporcie wskazano na wyniki badań trwających od 2015 do 2018 r. Stwierdzono 187 milionów reakcji na treści zamieszczane na Instagramie przez rosyjską firmę Internet Research Agency, nazywaną "fabryką trolli". Na Facebooku w tym samym czasie zarejestrowano 77 mln reakcji, na Twitterze - 73 mln.

Wśród internetowych komunikatorów jako wygodne źródło rozpowszechniania sfałszowanych treści wskazano na aplikację WhatsApp. Wszystko przez szyfrowanie wiadomości wysyłanych przez komunikator, co gwarantuje anonimowość również wykorzystującym narzędzie w celu rozpowszechniania dezinformacji. Raport wskazuje na powszechne wykorzystanie komunikatora w niedawnych kampaniach przed wyborami prezydenckimi w Brazylii i w Indiach.

Dezinformacja made in America

W 2020 r. nie tylko Rosja będzie ośrodkiem rozpowszechniania dezinformacji. Jeśli utrzyma się napięcie na linii Iran-Stany Zjednoczone, to właśnie Teheran może stać się znaczącym graczem, uważają badacze. Jako potencjalne źródło rozpowszechniania dezinformacyjnych treści wymieniono również Chiny.

Raport wskazuje jednak swoim amerykańskim odbiorcom, że wewnętrzne źródła dezinformacji są poważniejszym zagrożeniem. W nadchodzącej kampanii fake newsy i manipulacje najczęściej będą miały swoje źródło właśnie w Stanach Zjednoczonych.

W kategoriach ilości, dezinformacyjne treści wytworzone w kraju przeważają nad szkodliwymi treściami pochodzącymi z zagranicznych źródeł i nieomal z pewnością będą ważnym czynnikiem podczas następnych wyborów.

Raport "Dezinformacja i wybory 2020"

Raport zwraca uwagę na trudności w rozróżnieniu ewidentnie nieprawdziwych treści od zwyczajnej politycznej ekspresji, do której prawo gwarantuje pierwsza poprawka amerykańskiej konstytucji.

"Jedną z krajowych teorii spiskowych, które mogą przyciągnąć uwagę konserwatystów w kolejnych miesiącach, jest ta dotycząca współpracy wielkich firm z branży mediów społecznościowych z demokratami w celu powstrzymania szans na reelekcję prezydenta Donalda Trumpa" - można przeczytać w raporcie.

Amerykanie, którzy uważają wskazaną kwestię za bardzo duży problem dla kraju:
Amerykanie, którzy uważają wskazaną kwestię za bardzo duży problem dla kraju: Foto: Konkret24 / NYU Stern Center for Business and Human Rights/Pew Research Center

Wśród przykładów dezinformacji stworzonej w Stach Zjednoczonych raport wymienia zarówno te wywodzące się ze środowisk konserwatywnych, jak i lewicowych. Jednocześnie grupę odbiorców konserwatywnych wskazuje jako bardziej podatną na fałszywe informacje.

Raport akcentuje również, że narzędziami wykorzystanymi w celu rozpowszechniania dezinformacji staną się profesjonalne duże firmy działające zarówno w Stanach Zjednoczonych, jak i poza ich granicami.

Jak się bronić przed dezinformacją?

Raport formułuje dziewięć zaleceń dla firm zarządzających mediami społecznościowymi i tworzących treści przeznaczone do publikacji w sieci.

Autorzy wskazują m.in. na konieczność usprawnienia procesu weryfikacji zamieszczanych materiałów wideo pod kątem wykorzystania sztucznej inteligencji. Jako właściwy kierunek wskazano też zwiększenie liczby pracowników weryfikujących treści. Materiały deep fake powinny również być usuwane najszybciej jak to możliwe, zanim zostaną masowo rozpowszechnione.

Fałszywe informacje, których nieprawdziwość da się udowodnić, powinny być usuwane. Treści, które mogą być fałszywe, należy oznaczać. Usunięte materiały powinny zostać zarchiwizowane w celu ich dodatkowej weryfikacji na życzenie użytkowników. Treści dotyczące wyborów i instytucji państwowych powinny być weryfikowane priorytetowo.

Każda instytucja powinna zatrudnić osobę nadzorującą proces weryfikacji treści. To ważne w przypadku dużych korporacji, które proces weryfikacji rozłożyły na wiele zespołów. Osoby odpowiedzialne za nadzór powinny składać raport bezpośrednio do menedżerów najwyższego szczebla.

Koordynacja obrony przed dezinformacją

Raport wskazuje na brak zrozumiałej strategii walki z fałszywymi treściami udostępnianymi na Instagramie i postuluje konieczność jego usprawnienia. Autorzy zalecają również ograniczanie zasięgu materiałów udostępnianych na WhatsAppie. Użytkownicy aplikacji powinni mieć możliwość udostępniania treści do jednej grupy na raz.

Opracowanie mówi także o konieczności identyfikacji fałszywych treści rozpowszechnianych przez duże firmy, specjalizujące się w obsłudze mediów społecznościowych. Firmy powinny również aktywnie wspierać tworzenie nowego prawa regulującego agitację polityczną i sankcjonującego nielegalny wpływ na wyborców.

Autorzy raportu zwracają też uwagę na konieczność współpracy między różnymi platformami mediów społecznościowych. W przypadku identyfikacji nieprawdziwych treści pochodzących od jednego z nadawców, należy zweryfikować udostępniane przez niego treści na innych platformach. Użytkownicy poszczególnych serwisów powinni brać aktywny udział w identyfikowaniu fałszywych treści i uzyskać w tym celu pomoc administratorów.

Autor:  kjab
Źródło:  Konkret24; zdjęcie tytułowe: Shutterstock

Pozostałe

Nie, nie trzeba pisać oświadczeń w związku z nową polityką Twittera

Twitter zapowiedział zmianę swojej polityki prywatności i m.in. usuwanie nieaktywnych kont. W odpowiedzi użytkownicy, głównie tzw. fanowskich profili, zaczęli zamieszczać specjalne oświadczenia, mające ich rzekomo uchronić przed stratą dostępu do konta. Nie są potrzebne. Konta fanowskie od dawna muszą być odpowiednio przez użytkowników oznaczone.

Coraz więcej państw prosi i dostaje dane użytkowników mediów społecznościowych

W połowie listopada Facebook opublikował czwarty raport pokazujący, jak firma radzi sobie z moderacją treści i przestrzeganiem polityk społeczności. Platforma chwali się, że w ostatnim kwartale usunęła 3,2 miliarda fałszywych kont na Facebooku. Rośnie liczba usuwanych postów na Instagramie, związanych z organizacjami terrorystycznymi, ale także liczba wniosków władz państwowych o dane użytkowników. Jak się okazuje, w większości przypadków Facebook zgadza na ich przekazanie. Tak też jest w przypadku Polski.

Nie, Facebook nie zakazał używania emotikonów brzoskwiń i bakłażanów

Internauci rozpowszechniają fałszywą informację o rzekomym zakazie używania ikonek brzoskwini i bakłażanów na Facebooku i Instagramie. W rzeczywistości platformy zabraniają publikowania materiałów, które noszą znamiona nagabywania seksualnego. Nie można publikować treści, które są napastliwe seksualnie i które jednocześnie zawierają emotikony uważane za nacechowane seksualnie. Żadne konkretne ikony nie są jednak wskazane.

Popularne w sieci wideo nie jest z Hongkongu. To projekt artystyczny

W mediach społecznościowych bardzo dużą popularność zyskuje krótkie wideo z wynalazkiem, który ma pomóc zmylić system rozpoznawania twarzy. Przekazujący sobie to nagranie internauci piszą, że pochodzi ono z Hongkongu. Jednak przenośny projektor twarzy to część projektu artystycznego holenderskich studentów sprzed dwóch lat. Podkreślają, że produkt tak naprawdę nie działa i apelują o niewykorzystywanie go w celach politycznych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.