Cały internet mógł zobaczyć, jak znana z roli Wonder Woman aktorka Gal Gadot uprawia seks z przyrodnim bratem. Porno było fałszywką, ale zrobioną tak dobrze, że można zacząć się bać.
Zbitka słów "fake" (fałszywa) oraz "news" (informacja) uznana przez autorów słownika Collins Dictionary za Słowo Roku 2017 nie traci na popularności. Donald Trump tylko w czerwcu użył jej na Twitterze 21 razy. Wielu głowi się wciąż, jak z tym zjawiskiem walczyć, tymczasem internetowe fałszywki wchodzą już w nową, dużo groźniejszą fazę.
Nazywa się ona
Deepfake
czyli z angielskiego – "głębokie fałszywki".
Po raz pierwszy zrobiło się o tym głośno w listopadzie ubiegłego roku, gdy użytkownik pod pseudonimem "DeepFakes", opublikował w serwisie Reddit wideo, w którym wykorzystując metodę tzw. deep learning (głębokiego uczenia) - czyli odmianę sztucznej inteligencji - pokazał, jak można doczepiać głowy celebrytów do ciał aktorów w filmach pornograficznych.
Kilka takich zmanipulowanych nagrań, m.in. z Gal Gadot, aktorką znaną z filmu "Wonder Woman", szybko rozeszło się po internecie. Zazwyczaj bez informacji, że to fałszywki. "DeepFakes" opracował też proste narzędzie, dzięki któremu takie materiały mogli tworzyć inni użytkownicy. W serwisie zaroiło się od fałszywego porno, ale i mniej groźnych podmianek twarzy aktorów w filmowych hitach (np. Nicolas Cage zagrał Indianę Jonesa).
Rozwiązanie opierało się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w zdjęciach, wideo czy dźwięku - mimiki, intonacji, tików - tak, by móc odtworzyć - dajmy na to - twarz celebryty w różnych ustawieniach. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.
fałsz
Gal Gadot i Barack Obama
Nad podobnymi metodami analizy obrazu od kilku lat pracują eksperci od filmowych efektów specjalnych i naukowcy - m.in. na Uniwersytecie Stanforda czy University of Washington. Jednym z najczęściej "manipulowanych" jest Barack Obama, Na słynnym już wideo, pokazany w kilku zupełnie różnych ujęciach, mówi dokładnie to samo i tak samo.
Materiały nie są idealne. Wprawne oko wyłapie, że głowa Gal Gadot nie zawsze porusza się w tym samym kierunku, co doszyte do niej ciało aktorki porno. Powoduje to efekt nazywany "doliną niesamowitości" - wydaje się, że obserwujemy prawdziwego człowieka, ale obraz może powodować nieprzyjemne odczucie i brak komfortu oglądania. Czasem na twarz Gal Gadot nakładał się też fragment twarzy aktorki porno, a w przypadku Obamy można było momentami zauważyć rozmazane usta, a oczy wyrażały coś innego niż to, o czym polityk opowiadał. Ale to szczegóły. Są widoczne tylko wtedy, jeśli ktoś chce się nagraniu dokładniej przyjrzeć. Na pierwszy rzut oka nie do wychwycenia.
Najgorsze jest to, że naukowcy nad swoimi pomysłami pracują od lat, tymczasem fałszywe porno na Reddit stworzyła prawdopodobnie jedna osoba, nie wykorzystując do tego wyszukanych algorytmów. I dała narzędzie internautom, którzy na algorytmach w ogóle się nie znają.
Większość materiałów pornograficznych z twarzami znanych osób została usunięta z mediów społecznościowych i z Reddit. Zniknęły też odnośniki do narzędzia, które miało pomagać takie materiały tworzyć. Jednak to nie oznacza, że przestały one krążyć po sieci. Po prostu przeszły do podziemia.
Podziemie nazywa się
Dark Web
czyli z angielskiego - ciemna sieć (po polsku nazywana także "szarym internetem").
O tym, co krąży w "dark webie", wiedzą tylko ci, którzy mają wystarczającą wiedzę, by do tej internetowej rzeczywistości się przedostać. Dla przeciętnego użytkownika, a często i dla służb, jest to przestrzeń zupełnie niedostępna i nieznana (bo zanonimizowana).
Gdy redakcja Motherboard, portalu poświęconego technologii i nauce, jako pierwsza opisywała porno "deepfake" z Reddita, swój tekst zatytułowała "Mamy naprawdę przerąbane". Dyskusje na Reddicie to potwierdzały.
Większość użytkowników nie widziała problemu w zmanipulowanych obrazach z udziałem celebrytów, za problematyczne uznawała za to wykorzystywanie w tym celu twarzy youtuberów i zwykłych ludzi. Problematyczne, ale nie wykluczone.
Część rozmów dotyczyła tego, czy można robić fałszywe porno z osobami, które się użytkownikom po prostu podobają – na przykład z koleżankami czy osobami znanymi tylko z widzenia. Wielu przyznawało, że choć mają pewne wątpliwości, to jednak potrzeby erotyczne powinny mieć przewagę nad rozterkami etycznymi.
Przezwyciężenie moralnych oporów może zaś spowodować, że komuś z dobrą wiedzą technologiczną wystarczy dostęp do kilkunastu zdjęć, by opracować "deepfake" z naszą twarzą.
Zdjęć w sieci zostawiamy mnóstwo - tylko w latach 2015-2016 użytkownicy zamieścili w Google Photos 24 miliardy selfie. Łatwo zatem wyobrazić sobie programistę amatora, który wykorzysta je do fałszywego porno. Eksperci obawiają się przede wszystkim tzw. revenge porn- materiałów tworzonych i upublicznianych w formie zemsty na innej osobie.
Jack Clark, który zajmuje się sztuczną inteligencją w założonej przez Elona Muska firmie OpenAI, uważa, że do 2020 "deepfake" stanie się metodą na tyle już rozpowszechnioną i tanią, że wielu dowcipnisiów będzie z niej korzystać na skalę zbliżoną do dzisiejszych memów. I że będzie to zabawa bardzo niebezpieczna.
Cyfrowe marionetki
"Deepfake" i technologie odtwarzania wyglądu czy wypowiedzi mogą wyrządzić nam nie tylko krzywdę psychiczną, ale też fizyczną czy wizerunkową. Na przykład podważyć naszą wiarygodność lub posłużyć do spreparowania dowodów na zdradę małżeńską czy przyjęcie łapówki.
Pewnego dnia usłyszeć będzie można znaną postać, wypowiadającą niezwykle wulgarne lub rasistowskie opinie albo takie, w których biznesmen dyskredytować będzie swojego wspólnika.
Fałszywe wideo to dobre narzędzie dla szantażystów, wyłudzających pieniądze czy tajne informacje. Może doprowadzić do eliminowania osób z życia publicznego, a także do upadku firm.
"Dobrze wykonany i upubliczniony w odpowiednim momencie 'deepfake' może wyrządzić poważną szkodę własności fizycznej albo ludzkiemu życiu - w sytuacjach niepokojów społecznych czy paniki - oraz uczciwemu przebiegowi wyborów. Jego rozprzestrzenianie się grozi zniszczeniem zaufania, niezbędnego do funkcjonowania demokracji" – napisał na blogu Lawfare profesor Robert M. Chesney, amerykański prawnik i wykładowca z University of Texas School of Law.
Uruchommy wyobraźnię. Materiały "deepfake" mogą pokazywać polityków tam, gdzie ich nie było, albo robiących rzeczy, których nie zrobili. To niezwykle groźne narzędzie może być użyte w kampanii wyborczej albo gdy ktoś będzie dążył do zmiany władzy. Mogą też wywoływać konflikty - np. informacja o udanym puczu w Turcji, którą zobaczą miliony widzów w kraju, czy o zbiorowym morderstwie na tle religijnym w Nigerii. Dziś plotka o porwaniach dzieci w małej miejscowości w Indiach powoduje nawoływanie do krwawej zemsty. Co zatem będzie się działo, gdy plotce towarzyszyć będzie wyglądające na wiarygodne wideo, w którym ktoś przedstawi na takie porwanie dowody?
Profesor Chesney zwraca uwagę na jeszcze jeden aspekt "deepfake". – Opinia publiczna może być bardziej skłonna nie wierzyć w prawdziwe, ale niewygodne fakty – uważa. – Gdy "deepfake" staną się powszechne, społeczeństwo może mieć kłopot z uwierzeniem w to, co mówią im oczy lub uszy, nawet gdy mówią prawdę.
Jeśli zacznie pojawiać się coraz więcej zmanipulowanych materiałów, dużo łatwiej będzie można dyskredytować materiały prawdziwe. "Na przykład taśma Trumpa z sikaniem. Jeśli prawdziwe nagranie ujrzałoby światło dzienne, ludzie będą twierdzić, że to 'deepfake'" - mówi w portalu The Verge Benjamin Van Den Broeck, specjalista od efektów specjalnych. Chodzi o doniesienia, jakoby podczas pobytu Donalda Trumpa w Moskwie w 2013 r. Rosjanie nagrali jego noc z prostytutkami, które miał poprosić o sikanie na łóżko, na którym spali kiedyś Michelle i Barack Obama.
Zresztą fałszywe nagranie z Donaldem Trumpem też już powstało. Widzimy w nim polityka, który w typowym dla siebie stylu przemawia: "Drodzy Belgowie! To ważna sprawa. Jak wiecie, miałem jaja, by wycofać się z paryskiego porozumienia klimatycznego. I wy też to powinniście zrobić. Bo to, co teraz robicie, jest gorsze. Zgodziliście się na porozumienie, ale nic nie robicie. Tylko blablabla, bingbangbom. Zanieczyszczacie bardziej niż przed porozumieniem. Wstyd! Totalny wstyd! Ja przynajmniej jestem uczciwy. Ludzie mnie kochają, bo jestem uczciwy. Jestem najuczciwszą osobą na świecie". Po czym zachęca Belgię do wycofania się z porozumienia klimatycznego.
Wprawdzie potem pada ciche: "wiemy, że zmiany klimatyczne to fałszywka, tak jak i to wideo", wprawdzie dziwnie wyglądające usta i zęby Trumpa powinny wzbudzić wątpliwości widzów, a słowa – nawet jak na niego – są zbyt potoczne, jednak wiele osób nabrało się w internecie na to nagranie. Przygotowała je jedna z belgijskich partii.
Obawy, że "deepfake" może wywołać tzw. efekt różowego słonia, są słuszne. Nawet gdy ludzie rozpoznają, że mają do czynienia ze zmanipulowanym materiałem, to i tak wywrze on na nich wpływ. Dlatego Walter Schierer, ekspert ds. informatyki śledczej na Uniwersytecie Notre Dame, uważa, że jesteśmy w swoistym wyścigu zbrojeń, bo technologia niezwykle szybko się rozwija i przynosi coraz więcej realnych zagrożeń. Na tyle realnych, że amerykańska agenda rządowa DARPA (Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności) powołała do życia projekt Media Forensics, który ma stworzyć zautomatyzowane metody wyłapywania tego typu manipulacji w sieci.
Zakład, że mamy problem?
I choć nikt jeszcze nie stworzył idealnego "deepfake'a", naukowcy nie mają wątpliwości, że to tylko kwestia czasu. Tim Hwang, który na Uniwersytecie Harvarda zajmuje się etycznymi aspektami sztucznej inteligencji, przyjmuje już zakłady, kiedy pierwsze nagranie "deepfake" zostanie wykorzystane w kampanii wyborczej i osiągnie oglądalność na poziomie dwóch milionów odsłon.
Sam Hwang wątpi, by stało się to podczas zbliżającej się w Stanach Zjednoczonych kampanii wyborczej przed tzw. midterm elections (wybory do Kongresu, które odbywają się w połowie kadencji prezydenta - red.). Jednak Rebecca Crootof z Yale Law School założyła się o drinka, że "deepfake" z dwoma milionami odsłon pojawi się przed grudniem 2018, a do 2020 takie nagrania będą zjawiskiem powszechnym.
Nie wyklucza też tego profesor Michael Horowitz z University of Pennsylvania. - Czy bylibyśmy zdziwieni, gdyby na tydzień przed midterm elections pojawiło się wideo "deepfake", które byłoby rosyjską agitką, mającą na celu rozjuszyć Amerykanów, nieważne po której są stronie? W sumie to byłbym zdziwiony, gdyby Rosjanie tego nie spróbowali - konkluduje.
Przyszłość już tu jest
Intensywne prace nad algorytmami, które pozwolą idealnie odtworzyć wygląd i wypowiedzi, trwają. Profesor Matthias Niessner z Uniwersytetu Technicznego w Monachium pracuje nad dynamiczną rekonstrukcją 3D ludzkiej twarzy, co pozwoli na lepsze odtwarzanie ruchów głowy wraz z ruchem torsu czy włosów, udoskonalenie mrugania i dostosowanie wyrazu twarzy i spojrzenia do padających słów.
Google ma narzędzie Duplex, które może wykonać za nas telefon i umówić na przykład na wizytę u fryzjera.
Adobe stworzyło oprogramowanie VoCo, dzięki któremu zdanie "jutro lecę na wakacje" może nagle zamienić się w brzmiące wiarygodnie "rano zjem kanapkę". Wystarczy 20 minut nagrania czyjegoś głosu, by oprogramowanie stworzyło jakąkolwiek nową wypowiedź na dowolny temat, jakiejkolwiek długości. Jeśli jednak "jutro lecę na wakacje" łatwo przerobić na "rano zjem kanapkę", to czy równie łatwo nie będzie zmienić te słowa na - przypuśćmy - "wystrzeliliśmy rakietę na Polskę"?
Autor: Beata Biel, redakcja: Aleksandra Majda (Magazyn TVN24) / Źródło: Konkret24; Motherboard, Lawfare, The Verge
Źródło zdjęcia głównego: Magazyn TVN24