W sieci można znaleźć nagranie Marka Zuckerberga, napawającego się władzą, jaką daje mu posiadanie danych miliardów ludzi. Założyciel Facebooka w rzeczywistości nigdy nie wypowiedział takich słów, ale wideo powstało po to, żeby wywołać dyskusję o usuwaniu treści przez największy serwis społecznościowy świata. Mimo że wideo opublikowano na początku czerwca, do dzisiaj nie zostało zdjęte z serwisu, a Facebook wytłumaczył, dlaczego podjął taką decyzję.

Wszystko zostało przedstawione tak, jakby było fragmentem programu informacyjnego. "Zuckerberg: Zwiększamy transparentność reklam" - głosił nagłówek wystylizowany na telewizję CBSN. Na takim tle przedstawiono szefa Facebooka, który nie mówił jednak o nowych rozwiązaniach swojego serwisu, a o władzy, którą daje mu kontrola nad danymi miliardów użytkowników.

- Wyobraźcie to sobie: jeden mężczyzna z całkowitą kontrolą nad skradzionymi danymi miliardów ludzi, wszystkimi ich sekretami, życiem oraz przyszłością - mówi pokazany na nagraniu Zuckerberg. - Wszystko to zawdzięczam Spectre. Spectre pokazało mi, że ktokolwiek kontroluje dane, kontroluje przyszłość - dodaje.

Ta ostatnia fraza mogła wzbudzić pewne podejrzenia co do autentyczności filmu, tym bardziej, że oryginalnie pojawił się on na instagramowym profilu Billa Postersa - artysty, który w swoich pracach często wykorzystuje sztuczną inteligencję.

Kolejną wskazówką, wskazującą na przerobione komputerowo wideo, było oznaczenie w opisie do filmu firmy Canny AI (AI, Artificial Intelligence - "sztuczna inteligencja"). Zyskała popularność publikacją wideo ze światowymi przywódcami rzekomo śpiewającymi hit Johna Lennona - "Imagine". Pisaliśmy o tym w maju na Konkret24.

Podobnie jak tamten filmik, tak i nagranie z Zuckerbergiem to coraz popularniejszy typ manipulacji wideo - deep fake (z ang. głęboki fejk). W tym przypadku jednak stworzony w specyficznym celu.

Wystawa zasilana danymi osobowymi

Kluczem do ustalenia, jak i w jakim celu powstał film z szefem Facebooka, jest "Spectre", o którym miał rzekomo mówić Zuckerberg. To nazwa najnowszej wystawy dwóch brytyjskich artystów - Billa Postersa i współpracującego z nim Daniela Howe, pokazanej w Wielkiej Brytanii. Instalacje zastosowanie w tym projekcie dotykają tematów prywatności w sieci, a w szczególności wykradania danych.

W opisie tej interaktywnej wystawy na oficjalnej stronie Postersa zaznaczono, że ma ona związek z aferą Cambrige Analytica. W 2018 roku ujawniono, że dane z Facebooka były wykorzystywane przez tę firmę w doradztwie dla sztabu wyborczego Donalda Trumopa. Wyborcy mieli być profilowani na podstawie informacji zamieszczanych na Facebooku, a następnie sztab miał kierować do nich odpowiednio dostosowany przekaz, który miał większe szanse pozytywnie wpłynąć na ich decyzje.

Projekt Spectre "nazwany na cześć internetowej postaci dr Aleksandra Kogana, naukowca zajmującego się danymi, który sprzedał Cambridge Analytica 87 milionów profili na Facebooku, jest wciągającą instalacją, która zniechęca do używania wielu technologii i metod stosowanych w branży Digital Influence. Instalacja jest zarządzana przez algorytmy i zasilana danymi osobowymi użytkownika" - czytamy na stronie Postersa.

Po opublikowaniu wideo z Zuckerbergiem, artysta zamieścił na swoim profilu także filmową zapowiedź swojej wystawy, w której wyjaśniał, jakie będą jej główne cele. Jej częścią jest sfabrykowane nagranie założyciela Facebooka, które opatrzono komunikatem: "Film, który zobaczyłeś, to wygenerowany przez sztuczną inteligencję deep fake Billa Postersa".

Test na usuwanie

Problem posiadania danych milionów użytkowników Facebooka nie jest jednak główną kwestią, którą ma poruszać filmik brytyjskich twórców. Opublikowanie deep fake'a akurat w serwisie Instagram miało wywołać dyskusję o usuwaniu lub nieusuwaniu pewnego rodzaju treści z platform należących do serwisu Marka Zuckerberga. Stworzony do dzielenia się zdjęciami serwis został bowiem zakupiony przez Facebooka w 2012 roku.

Publikacja wideo może być związana z historią zmanipulowanego nagrania amerykańskiej kongresmenki Nancy Pelosi. Jak pisaliśmy na Konkret24, w sieci dużą popularność zdobyła informacja, jakoby Pelosi miała być pod wpływem alkoholu podczas konferencji organizowanej przez Centrum ds. Amerykańskiego Postępu. Domysły oparto na filmie, na którym słuchać, jak kongresmenka mówi powoli i niewyraźnie. W rzeczywistości wideo zostało komputerowo spowolnione, aby uzyskać taki właśnie efekt i zasugerować jej niedyspozycję. Po ujawnieniu manipulacji film zniknął z serwisu YouTube, ale Facebook podjął w tej sprawie inną decyzję.

Przedstawiciele serwisu, w tym szefowa ds. polityki produktowej i antyterrorystycznej Monika Bickert, tłumaczyli, że usuwanie materiałów z platformy następuje wyłącznie w przypadkach, kiedy zagraża to szeroko pojętemu bezpieczeństwu. "Ale kiedy mówimy o dyskursie politycznym i dezinformacji wokół niego, uważamy, że właściwym podejściem jest umożliwienie ludziom dokonywania świadomych wyborów” - mówiła Bickert na antenie stacji CNN. Facebook zapewniał także, że walczy z każdym rodzajem dezinformacji poprzez współpracę z niezależnymi platformami fact-checkingowymi.

Wideo z Pelosi zostało zgłoszone do sprawdzenia i zakwalifikowane jako "zmanipulowane". Jako że nie "zagrażało bezpieczeństwu", Facebook nie usunął go z platformy, a jedynie obniżył zasięgi, czyli liczbę użytkowników, do których mogłoby dotrzeć. Dodatkowo w materiałach powiązanych wyświetlanych obok materiału z Pelosi umieszczono inne informujące o tym, że nagranie jest komputerowo sfabrykowane.

Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami
Po weryfikacji fact-checkerów wideo z Pelosi powiązano z innymi fałszywymi materiałami Foto: facebook

Brytyjscy artyści dwa tygodnie po takim rozwiązaniu sprawy wideo z Pelosi postanowili więc przetestować Facebooka zmanipulowanym nagraniem z jego własnym założycielem. Chcieli sprawdzić, jak prawdziwe są zapewnienia Marka Zuckerberga o coraz skuteczniejszej walce jego platformy z różnego rodzaju fałszywymi lub zmanipulowanymi treściami.

Początkowo prośbę o usunięcie materiału zgłosiła telewizja CBSN, która zaprotestowała przeciwko bezprawnemu użyciu własnego logo w nagraniu. Posters i Howe opublikowali więc drugą wersję, na której nie widać już nazwy stacji, a jedynie samego Zuckerberga. Oba filmy do dzisiaj są jednak dostępne na instagramowym profilu artysty. W rozmowie z portalem VICE rzecznik Instagrama wyjaśniał, że działania w sprawie materiału artystów będą takie same, jak dla innych zgłaszanych treści:

Będziemy traktować te treści w taki sam sposób, w jaki traktujemy wszelkie dezinformacje na Instagramie. Jeśli zewnętrzne firmy fact-checkingowe oznaczą to jako fałszywe, odizolujemy je z rekomendacji Instagrama, takich jak strony "Eksploruj" i hashtagów.

Rzecznik Instagrama

Wideo zostało już zakwalifikowane przez Facebooka jako "dezinformujące", jednak podobnie jak w przypadku nagrania z Pelosi nie podjęto decyzji o jego usunięciu z serwisu. Mimo że film dotyka bezpośrednio założyciela Facebooka, ciągle można go oglądać na kanale Postersa. Nie wyświetla się jedynie w rekomendacjach Instagrama.

Trump, Freeman, Kardashian

Kampania promocyjna instalacji "Spectre" objęła nie tylko wideo z Markiem Zuckerbergiem. Na instagramowym profilu Billa Postersa opublikowano także materiały typu deep fake podszywające się pod Donalda Trumpa, Morgana Freemana, Marinę Abramović i Kim Kardashian.

Przykładowo ta ostatnia celebrytka mówi, że dzięki "Spectre" zaczęła zarabiać na swoich hejterach, których dane teraz gromadzi. Motyw nazwy instalacji i jej wykorzystania pojawia się we wszystkich nagraniach.

Wideo z Kardashian jest też zrobione bardzo dokładnie - szybkie rozpoznanie fałszywki może przysporzyć trudności. W przypadku prezydenta USA nieautentyczność zdradza głos. Podobnie jak na nagraniu z Zuckerbergiem można tam usłyszeć, że słowa "wypowiadane" przez bohaterów są nagrane oddzielnie przez inne osoby i nawet mimo obróbki brzmią nienaturalnie i nieautentycznie.

Przy wideo z Morganem Freemanem deep fake można rozpoznać przy odnotowaniu nienaturalnych drgań twarzy, które towarzyszą animowaniu bohatera nagrania.



Wywiad ostrzega, narzędzie powstaje

W styczniu tego roku Dan Coast - dyrektor amerykańskiego Wywiadu Narodowego - ostrzegł, że deep fake lub podobne fałszywe treści napędzane nowoczesną technologią będą prawdopodobnie jedną z taktyk stosowanych przez ludzi chcących zakłócić przyszłoroczne wybory prezydenckie w Stanach Zjednoczonych. W specjalnym dokumencie zaznaczył on także, że takie działania mogą być szczególnie cenne dla "zagranicznych przeciwników", który będą chcieli wpłynąć na przebieg wyborów.

Między innymi w odpowiedzi na takie apele, profesor Hany Farid z Dartmouth College tworzy specjalne oprogramowanie, które będzie w stanie identyfikować materiały typu deep fake, jak i potwierdzać autentyczność wideo wstępnie kwalifikowanych jako fałszywe.

Ekspert ds. weryfikacji treści wizualnych wraz ze swoim doktorantem chcą opracować program, który najpierw przetworzy setki godzin materiałów z wystąpieniami polityków zachowanymi w sieci, a następnie na tej podstawie stworzy uniwersalny model ruchów twarzy, mimiki, a także sposobów mówienia np. Donalda Trumpa.

- Stawka niespodziewanie stała się bardzo wysoka - mówił Farid w wywiadzie dla CNN. Dodał, że jest zaniepokojony, ponieważ tego typu materiały filmy mogą wyrządzić krzywdę nie tylko pojedynczym obywatelom, ale nawet całym demokracjom.

Autor:  Michał Istel
Źródło:  Konkret24, BBC News, Zdjęcie tytułowe: Instagram/bill_posters_uk

Pozostałe

Wyścig zbrojeń XXI wieku. Technologie deepfake coraz lepsze i groźniejsze

O deepfake jest głośno wraz z każdym takim materiałem wstawionym do sieci. Na początku sierpnia zaskoczenie zaawansowaniem tej technologii wywołał filmik, w którym komik Bill Hader zamienia się w Toma Cruise'a. Zastosowanie takich manipulacyjnych rozwiązań staje się jednak coraz groźniejsze - jedna z firm w USA miała stracić z tego powodu kilka milionów dolarów. Rząd Stanów Zjednoczonych chce stworzyć zaawansowane narzędzia do identyfikowania sfałszowanych treści pojawiających się w sieci.

Motocyklowy kask na drodze - pech czy międzynarodowy znak ostrzegawczy?

Internetowy wpis o tym, że kask położony na ziemi za motocyklem jest znakiem ostrzegawczym, wywołał sporą dyskusję w polskim internecie. Polemizował branżowy portal, replikowało jedno z motocyklowych stowarzyszeń. Pomysł na takie wykorzystanie kasku nie jest nowy, ale budzi w środowisku i wątpliwości, i kontrowersje — przesądni uważają, że kask na ziemi przynosi pecha.

Prześlij dalej wiadomość, to zachowasz swoje facebookowe konto. Uwaga na fałszywy łańcuszek

Użytkownicy Facebooka w Polsce przesyłają sobie w wiadomościach prywatnych kilkuzdaniowy apel. W związku z z ostatnią awarią serwisu, aby zachować swoje konto, wiadomość należy przesłać dalej. To nieprawda - Facebook zapewnia, że komunikuje się z użytkownikami w inny sposób. Sam tekst pojawił się dwa lata temu w rosyjskojęzycznym internecie, a wiadomość zawiera zagraniczny numer telefonu, co może sugerować, że nowy łańcuszek jest próbą oszustwa.

Zmanipulowane zdjęcie wzbudza dyskusję o nierówności płciowej w świecie technologii

Spotkanie przedstawicieli wielkich firm branży technologicznej u włoskiego projektanta Brunello Cucinellego zakończyło się skandalem. Wszystko z powodu fotografii, która znalazła się na profilu Cucinellego na Instagramie. Pierwotnie zdjęcie przedstawiało 15 mężczyzn. W programie graficznym "doklejono" do nich wizerunki dwóch kobiet. Publikacja zdjęcia wywołała falę oburzenia.

Internauci współczuli bitemu robotowi, który okazał się komputerową animacją

Wideo przedstawiające bitego różnymi przedmiotami robota w ciągu trzech dni od opublikowania zobaczyły miliony internautów. Wielu z nich, także w Polsce, uwierzyło, że maszyna rzeczywiście była testowana w ten sposób, i wyrażało swoje współczucie lub ostrzegało, że sztuczna inteligencja może kiedyś się zemścić. Filmik jest jednak stworzoną komputerowo parodią innego nagrania. Nie wystąpił w nim żaden robot.

Miliardy kont usuniętych na Facebooku przed eurowyborami. "Rosyjskie źródła chciały zdławić frekwencję"

Złośliwe źródła ciągle stosują nowe taktyki, ale cel jest ten sam: podważenie zaufania do demokratycznych procesów – napisano w raporcie Komisji Europejskiej. "Podejrzani aktorzy" do swoich celów użyli m.in. pożar katedry Notre Dame. Aktywność rosyjskich źródeł w porównaniu z analogicznym okresem rok wcześniej wzrosła ponad dwukrotnie, a jednym z celów dezinformacyjnych ataków byli polscy internauci.