W sieci można znaleźć nagranie Marka Zuckerberga, napawającego się władzą, jaką daje mu posiadanie danych miliardów ludzi. Założyciel Facebooka w rzeczywistości nigdy nie wypowiedział takich słów, ale wideo powstało po to, żeby wywołać dyskusję o usuwaniu treści przez największy serwis społecznościowy świata. Mimo że wideo opublikowano na początku czerwca, do dzisiaj nie zostało zdjęte z serwisu, a Facebook wytłumaczył, dlaczego podjął taką decyzję.

Wszystko zostało przedstawione tak, jakby było fragmentem programu informacyjnego. "Zuckerberg: Zwiększamy transparentność reklam" - głosił nagłówek wystylizowany na telewizję CBSN. Na takim tle przedstawiono szefa Facebooka, który nie mówił jednak o nowych rozwiązaniach swojego serwisu, a o władzy, którą daje mu kontrola nad danymi miliardów użytkowników.

- Wyobraźcie to sobie: jeden mężczyzna z całkowitą kontrolą nad skradzionymi danymi miliardów ludzi, wszystkimi ich sekretami, życiem oraz przyszłością - mówi pokazany na nagraniu Zuckerberg. - Wszystko to zawdzięczam Spectre. Spectre pokazało mi, że ktokolwiek kontroluje dane, kontroluje przyszłość - dodaje.

Ta ostatnia fraza mogła wzbudzić pewne podejrzenia co do autentyczności filmu, tym bardziej, że oryginalnie pojawił się on na instagramowym profilu Billa Postersa - artysty, który w swoich pracach często wykorzystuje sztuczną inteligencję.

Kolejną wskazówką, wskazującą na przerobione komputerowo wideo, było oznaczenie w opisie do filmu firmy Canny AI (AI, Artificial Intelligence - "sztuczna inteligencja"). Zyskała popularność publikacją wideo ze światowymi przywódcami rzekomo śpiewającymi hit Johna Lennona - "Imagine". Pisaliśmy o tym w maju na Konkret24.

Podobnie jak tamten filmik, tak i nagranie z Zuckerbergiem to coraz popularniejszy typ manipulacji wideo - deep fake (z ang. głęboki fejk). W tym przypadku jednak stworzony w specyficznym celu.

Wystawa zasilana danymi osobowymi

Kluczem do ustalenia, jak i w jakim celu powstał film z szefem Facebooka, jest "Spectre", o którym miał rzekomo mówić Zuckerberg. To nazwa najnowszej wystawy dwóch brytyjskich artystów - Billa Postersa i współpracującego z nim Daniela Howe, pokazanej w Wielkiej Brytanii. Instalacje zastosowanie w tym projekcie dotykają tematów prywatności w sieci, a w szczególności wykradania danych.

W opisie tej interaktywnej wystawy na oficjalnej stronie Postersa zaznaczono, że ma ona związek z aferą Cambrige Analytica. W 2018 roku ujawniono, że dane z Facebooka były wykorzystywane przez tę firmę w doradztwie dla sztabu wyborczego Donalda Trumopa. Wyborcy mieli być profilowani na podstawie informacji zamieszczanych na Facebooku, a następnie sztab miał kierować do nich odpowiednio dostosowany przekaz, który miał większe szanse pozytywnie wpłynąć na ich decyzje.

Projekt Spectre "nazwany na cześć internetowej postaci dr Aleksandra Kogana, naukowca zajmującego się danymi, który sprzedał Cambridge Analytica 87 milionów profili na Facebooku, jest wciągającą instalacją, która zniechęca do używania wielu technologii i metod stosowanych w branży Digital Influence. Instalacja jest zarządzana przez algorytmy i zasilana danymi osobowymi użytkownika" - czytamy na stronie Postersa.

Po opublikowaniu wideo z Zuckerbergiem, artysta zamieścił na swoim profilu także filmową zapowiedź swojej wystawy, w której wyjaśniał, jakie będą jej główne cele. Jej częścią jest sfabrykowane nagranie założyciela Facebooka, które opatrzono komunikatem: "Film, który zobaczyłeś, to wygenerowany przez sztuczną inteligencję deep fake Billa Postersa".

Test na usuwanie

Problem posiadania danych milionów użytkowników Facebooka nie jest jednak główną kwestią, którą ma poruszać filmik brytyjskich twórców. Opublikowanie deep fake'a akurat w serwisie Instagram miało wywołać dyskusję o usuwaniu lub nieusuwaniu pewnego rodzaju treści z platform należących do serwisu Marka Zuckerberga. Stworzony do dzielenia się zdjęciami serwis został bowiem zakupiony przez Facebooka w 2012 roku.

Publikacja wideo może być związana z historią zmanipulowanego nagrania amerykańskiej kongresmenki Nancy Pelosi. Jak pisaliśmy na Konkret24, w sieci dużą popularność zdobyła informacja, jakoby Pelosi miała być pod wpływem alkoholu podczas konferencji organizowanej przez Centrum ds. Amerykańskiego Postępu. Domysły oparto na filmie, na którym słuchać, jak kongresmenka mówi powoli i niewyraźnie. W rzeczywistości wideo zostało komputerowo spowolnione, aby uzyskać taki właśnie efekt i zasugerować jej niedyspozycję. Po ujawnieniu manipulacji film zniknął z serwisu YouTube, ale Facebook podjął w tej sprawie inną decyzję.

Przedstawiciele serwisu, w tym szefowa ds. polityki produktowej i antyterrorystycznej Monika Bickert, tłumaczyli, że usuwanie materiałów z platformy następuje wyłącznie w przypadkach, kiedy zagraża to szeroko pojętemu bezpieczeństwu. "Ale kiedy mówimy o dyskursie politycznym i dezinformacji wokół niego, uważamy, że właściwym podejściem jest umożliwienie ludziom dokonywania świadomych wyborów” - mówiła Bickert na antenie stacji CNN. Facebook zapewniał także, że walczy z każdym rodzajem dezinformacji poprzez współpracę z niezależnymi platformami fact-checkingowymi.

Wideo z Pelosi zostało zgłoszone do sprawdzenia i zakwalifikowane jako "zmanipulowane". Jako że nie "zagrażało bezpieczeństwu", Facebook nie usunął go z platformy, a jedynie obniżył zasięgi, czyli liczbę użytkowników, do których mogłoby dotrzeć. Dodatkowo w materiałach powiązanych wyświetlanych obok materiału z Pelosi umieszczono inne informujące o tym, że nagranie jest komputerowo sfabrykowane.

Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami
Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami Foto: facebook

Brytyjscy artyści dwa tygodnie po takim rozwiązaniu sprawy wideo z Pelosi postanowili więc przetestować Facebooka zmanipulowanym nagraniem z jego własnym założycielem. Chcieli sprawdzić, jak prawdziwe są zapewnienia Marka Zuckerberga o coraz skuteczniejszej walce jego platformy z różnego rodzaju fałszywymi lub zmanipulowanymi treściami.

Początkowo prośbę o usunięcie materiału zgłosiła telewizja CBSN, która zaprotestowała przeciwko bezprawnemu użyciu własnego logo w nagraniu. Posters i Howe opublikowali więc drugą wersję, na której nie widać już nazwy stacji, a jedynie samego Zuckerberga. Oba filmy do dzisiaj są jednak dostępne na instagramowym profilu artysty. W rozmowie z portalem VICE rzecznik Instagrama wyjaśniał, że działania w sprawie materiału artystów będą takie same, jak dla innych zgłaszanych treści:

Będziemy traktować te treści w taki sam sposób, w jaki traktujemy wszelkie dezinformacje na Instagramie. Jeśli zewnętrzne firmy fact-checkingowe oznaczą to jako fałszywe, odizolujemy je z rekomendacji Instagrama, takich jak strony "Eksploruj" i hashtagów.

Rzecznik Instagrama

Wideo zostało już zakwalifikowane przez Facebooka jako "dezinformujące", jednak podobnie jak w przypadku nagrania z Pelosi nie podjęto decyzji o jego usunięciu z serwisu. Mimo że film dotyka bezpośrednio założyciela Facebooka, ciągle można go oglądać na kanale Postersa. Nie wyświetla się jedynie w rekomendacjach Instagrama.

Trump, Freeman, Kardashian

Kampania promocyjna instalacji "Spectre" objęła nie tylko wideo z Markiem Zuckerbergiem. Na instagramowym profilu Billa Postersa opublikowano także materiały typu deep fake podszywające się pod Donalda Trumpa, Morgana Freemana, Marinę Abramović i Kim Kardashian.

Przykładowo ta ostatnia celebrytka mówi, że dzięki "Spectre" zaczęła zarabiać na swoich hejterach, których dane teraz gromadzi. Motyw nazwy instalacji i jej wykorzystania pojawia się we wszystkich nagraniach.

Wideo z Kardashian jest też zrobione bardzo dokładnie - szybkie rozpoznanie fałszywki może przysporzyć trudności. W przypadku prezydenta USA nieautentyczność zdradza głos. Podobnie jak na nagraniu z Zuckerbergiem można tam usłyszeć, że słowa "wypowiadane" przez bohaterów są nagrane oddzielnie przez inne osoby i nawet mimo obróbki brzmią nienaturalnie i nieautentycznie.

Przy wideo z Morganem Freemanem deep fake można rozpoznać przy odnotowaniu nienaturalnych drgań twarzy, które towarzyszą animowaniu bohatera nagrania.



Wywiad ostrzega, narzędzie powstaje

W styczniu tego roku Dan Coast - dyrektor amerykańskiego Wywiadu Narodowego - ostrzegł, że deep fake lub podobne fałszywe treści napędzane nowoczesną technologią będą prawdopodobnie jedną z taktyk stosowanych przez ludzi chcących zakłócić przyszłoroczne wybory prezydenckie w Stanach Zjednoczonych. W specjalnym dokumencie zaznaczył on także, że takie działania mogą być szczególnie cenne dla "zagranicznych przeciwników", który będą chcieli wpłynąć na przebieg wyborów.

Między innymi w odpowiedzi na takie apele, profesor Hany Farid z Dartmouth College tworzy specjalne oprogramowanie, które będzie w stanie identyfikować materiały typu deep fake, jak i potwierdzać autentyczność wideo wstępnie kwalifikowanych jako fałszywe.

Ekspert ds. weryfikacji treści wizualnych wraz ze swoim doktorantem chcą opracować program, który najpierw przetworzy setki godzin materiałów z wystąpieniami polityków zachowanymi w sieci, a następnie na tej podstawie stworzy uniwersalny model ruchów twarzy, mimiki, a także sposobów mówienia np. Donalda Trumpa.

- Stawka niespodziewanie stała się bardzo wysoka - mówił Farid w wywiadzie dla CNN. Dodał, że jest zaniepokojony, ponieważ tego typu materiały filmy mogą wyrządzić krzywdę nie tylko pojedynczym obywatelom, ale nawet całym demokracjom.

Autor:  Michał Istel
Źródło:  Konkret24, BBC News, Zdjęcie tytułowe: Instagram/bill_posters_uk

Pozostałe

Popularne w sieci wideo nie jest z Hongkongu. To projekt artystyczny

W mediach społecznościowych bardzo dużą popularność zyskuje krótkie wideo z wynalazkiem, który ma pomóc zmylić system rozpoznawania twarzy. Przekazujący sobie to nagranie internauci piszą, że pochodzi ono z Hongkongu. Jednak przenośny projektor twarzy to część projektu artystycznego holenderskich studentów sprzed dwóch lat. Podkreślają, że produkt tak naprawdę nie działa i apelują o niewykorzystywanie go w celach politycznych.

Dezinformacja - prognozy przed wyborami w USA w 2020 roku

Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.

Odtworzyli głos szefa firmy. Wyłudzili 243 tys. dolarów

Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Chińska aplikacja do podmieniania twarzy podbija rynek. I budzi obawy

Chińska aplikacja ZAO pozwala użytkownikom na "podmienienie" twarzy aktora w klipie z serialu lub filmu na swoją twarz. Efekt jest realistyczny i dostępny w ciągu chwili. Program budzi kontrowersje - nie tylko ze względu na swoje możliwości, ale i na politykę prywatności. Jednocześnie bije jednak rekordy popularności w Azji - w ciągu kilku dni od premiery stała się najczęściej ściąganą aplikacją.

Wyścig zbrojeń XXI wieku. Technologie deepfake coraz lepsze i groźniejsze

O deepfake jest głośno wraz z każdym takim materiałem wstawionym do sieci. Na początku sierpnia zaskoczenie zaawansowaniem tej technologii wywołał filmik, w którym komik Bill Hader zamienia się w Toma Cruise'a. Zastosowanie takich manipulacyjnych rozwiązań staje się jednak coraz groźniejsze - jedna z firm w USA miała stracić z tego powodu kilka milionów dolarów. Rząd Stanów Zjednoczonych chce stworzyć zaawansowane narzędzia do identyfikowania sfałszowanych treści pojawiających się w sieci.