Specjaliści ostrzegali, że technologia deepfake stanie się narzędziem wykorzystywanym przez przestępców - jej celem mieli paść głównie politycy i społeczeństwa demokratyczne. Tymczasem największymi ofiarami deepfake'ów stały się kobiety.
Przekonujące i przerażające. Tak internauci oceniali filmy z wizerunkiem Toma Cruise'a powstałe w technologii deepfake, które pod koniec lutego stały się popularne na całym świecie. Nagrania trafiły na TikToka, ale masowo powielano je także w innych serwisach.
Powstały we współpracy belgijskiego specjalisty efektów wizualnych Chrisa Ume i aktora Milesa Fishera, który jest łudząco podobny do Cruise’a. Zagrał, naśladując gesty i sposób poruszania się gwiazdy Hollywood, zaś Ume odpowiadał za postprodukcję.
W wywiadzie dla magazynu "The Verge" Chris Ume podkreślał, że stworzenie deepfake'a wysokiej jakości wymagało zaangażowania aktora, zaawansowanej wiedzy o sztucznej inteligencji i wielu dni pracy przy obróbce wideo. Samo trenowanie algorytmu zajęło dwa miesiące. Tak przekonującego efektu nie można uzyskać, korzystając z ogólnodostępnych aplikacji do tworzenia deepfake'ów. "Nie da się tego zrobić, naciskając tylko przycisk" – mówił Ume.
Głośny deepfake z wizerunkiem znanego aktora po raz kolejny zwrócił uwagę na niebezpieczeństwo użycia tej technologii do manipulowania opinią publiczną. Pamiętamy film typu deepfake, na którym 10 światowych liderów "śpiewało" przebój Johna Lennona "Imagine" (izraelski start-up tak reklamował własne narzędzie internetowe); deep fake z Barackiem Obamą (zrobiony w celach pokazowych przez Uniwersytet w Waszyngtonie); czy spot typu deepfake przygotowany przez belgijską partię sp.a.
Jednak okazuje się, że to nie politycy i nie partie polityczne są na razie głównymi ofiarami tej technologii.
Komu deepfake'i miały zagrażać - a jak jest naprawdę
Do tworzenia nagrań audio i wideo w technologii deepfake wykorzystuje się sztuczną inteligencję. Rozwiązanie opiera się na algorytmach zwanych generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w zdjęciach, filmie czy dźwięku - mimiki, intonacji, tików, ruchów oczu. Drugi element GAN porównuje prawdziwe i fałszywe obrazy, sprawdzając, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.
Jak wyjaśnialiśmy w Konkret24, przytaczając opracowanie z portalu The Conversation, wielu z nas już wie, że nie można wierzyć we wszystko, co się widzi. Przez ostatnie kilka dekad świadomi odbiorcy informacji przyzwyczaili się do oglądania zdjęć z przerobionych za pomocą programów do fotoedycji. Jednak wideo typu deepfake to inna historia.
Suzie Dunn, związana z Uniwersytetem Ottawskim prawniczka zajmująca się cyberprzemocą, w tekście na stronie think tanku Centre for International Governance Innovation zwraca uwagę, że dotychczasowa dyskusja wokół deepfake'ów koncentrowała się na możliwości wykorzystania ich w celach głównie politycznych: do manipulowania wyborami, oszustw w biznesie, wpływania na opinię publiczną.
Rzeczywiście, od początku ostrzegano, że technologia ta może być wykorzystana do tworzenia filmów, w których polityczni przywódcy mówią rzeczy, jakich nigdy nie powiedzieli. W styczniu 2019 roku Dan Coats - dyrektor amerykańskiego Wywiadu Narodowego - ostrzegał, że deepfake lub podobne fałszywe treści napędzane nowoczesną technologią będą prawdopodobnie jedną z taktyk stosowanych przez tych, którzy zechcą zakłócić wybory prezydenckie w USA w 2020 roku. A profesor Hany Farid z Dartmouth College ocenił w wywiadzie dla CNN: "Stawka niespodziewanie stała się bardzo wysoka" - będąc zaniepokojony tym, że materiały deepfake mogą wyrządzić krzywdę nie tylko pojedynczym obywatelom, lecz całym demokracjom
Tymczasem Suzie Dunn w artykule przekonuje, że deepfake'i wykorzystujące wizerunek polityków to tylko niewielka część wszystkich dostępnych w sieci. Technologia jest bowiem stosowana przede wszystkim do tworzenie filmów o seksualnym kontekście, w których wykorzystuje się wizerunki kobiet. Dunn cytuje raport firmy Sensity.ai z 2019 roku, według którego aż 96 proc. publikowanych w sieci deepfake'ów miało kontekst seksualny, a niemal wszystkie wykorzystywały wizerunki kobiet.
"Deepfake to stosunkowo nowy sposób na stosowanie przemocy ze względu na płeć, wykorzystujący sztuczną inteligencję do prześladowania, poniżania i nękania za pomocą znanej od wieków taktyki pozbawiania kobiet ich seksualnej autonomii" – komentuje Suzie Dunn.
Najpierw celebrytki, teraz też zwykłe kobiety
Ekspertka Uniwersytetu Ottawskiego zwraca uwagę szczególnie na Stany Zjednoczone i Koreę Południową - tam głównymi ofiarami technologii deepfake stały się celebrytki. Rzadko zdarza się, by stosowano prawne rozwiązania nakazujące usunięcie niechcianych filmów z sieci. Aktorka Scarlett Johansson, której wizerunek wielokrotnie wykorzystywano do tworzenia deepfake'ów, publicznie wyrażała frustrację, że usunięcie takich nagrań z internetu bywa niemożliwe.
Problem deepfake'ów z kobietami coraz częściej dotyczy jednak nie tylko znanych, ale po prostu wszystkich kobiet – pisze Suzie Dunn. Przytacza trzy przykłady pań, których wizerunki wykorzystano do stworzenia wideo mających ewidentne znamiona nękania o podłożu seksualnym. Jedną z nich była Rana Ayyub - indyjska dziennikarka, która sprzeciwiła się reakcji rządu na gwałt na ośmioletniej dziewczynce. Kobieta stała się ofiarą deepfake'a stworzonego w ramach skoordynowanej internetowej kampanii nienawiści.
Najpierw w sieci pojawiły się zrzuty ekranu rzekomo jej wpisów na Twitterze - których Ayyub nigdy nie napisała. Kolejnego dnia kobieta zobaczyła krążący na WhatsAppie film pornograficzny, w którym rzekomo wystąpiła. W mediach społecznościowych dostawała setki powiadomień i obraźliwych komentarzy. Dziennikarka opisała swoje doświadczenia na blogu Huffington Post. "Trafiłam do szpitala z kołataniem serca i niepokojem, lekarz dał mi lekarstwa. Ale ja wymiotowałam, moje ciśnienie krwi wzrosło, moje ciało tak gwałtownie zareagowało na stres" - relacjonowała. Ayyub przekonywała, że nagranie stworzono po to, by ją uciszyć i zniechęcić do podejmowania aktywności publicznej.
Jeden bot i 680 tys. ofiar nękania
Technologia deepfake od początku związana była właśnie z pornografią. Po raz pierwszy zrobiło się o niej głośno w listopadzie 2017 roku, gdy użytkownik pod pseudonimem DeepFakes opublikował w serwisie Reddit wideo, w którym pokazał, jak można doczepiać głowy celebrytów do ciał aktorów w filmach pornograficznych. Kilka takich zmanipulowanych nagrań, m.in. z Gal Gadot, aktorką znaną z filmu "Wonder Woman", szybko rozeszło się po internecie. Zazwyczaj bez informacji, że to fałszywki. DeepFakes opracował też proste narzędzie, dzięki któremu takie materiały mogli tworzyć inni użytkownicy. W serwisie zaroiło się od fałszywego porno, ale i mniej groźnych podmianek twarzy aktorów w filmowych hitach (np. Nicolas Cage zagrał Indianę Jonesa).
W październiku 2020 roku serwis BuzzFeed pisał o nieuprawnionym wykorzystaniu wizerunku 680 tys. kobiet do stworzenia fotorealistycznych nagich obrazów. Zdjęcia kobiet zostały przesłane do bota w aplikacji Telegram. Narzędzie pozwalało na stworzenie deepfake'a na podstawie jednego zdjęcia ofiary nękania seksualnego.
Nina Jankowicz, badaczka dezinformacji związana z The Wilson Center, przekonywała na łamach BuzzFeed, że odkrycie narzędzia dostępnego na Telegramie potwierdza, iż technologia deepfake w dużej mierze stosowana jest w celu prześladowania kobiet. "Te podróbki są wykorzystywane do spełniania chorych fantazji kochanka, chłopaka lub po prostu totalnego zboczeńca" - powiedziała Jankowicz. "Albo są wykorzystywane jako potencjalny materiał do szantażu" – dodała. Jej zdaniem robienie takich materiałów może mieć ogromne negatywne konsekwencje dla kobiet na świecie, zwłaszcza w konserwatywnych krajach. Po ich upublicznieniu kobiety te mogą stracić pracę lub doznać przemocy ze strony partnera.
"To jak Photoshop 20 lat temu"
W 2015 roku w Wielkiej Brytanii powstała infolinia dla ofiar wykorzystywania intymnych prywatnych zdjęć i nagrań wideo. Sophie Mortimer, prowadząca infolinię Revenge Porn Helpline, powiedziała "MIT Technology Review" o kilku przykładach przerobionych zdjęć pornograficznych wykorzystywanych w celu zdyskredytowania kogoś. Jej zdaniem pojawienie się większej liczby deepfake'ów jest tylko kwestią czasu. "To tak, jakbyśmy wstrzymywali oddech i czekali na wielką falę" – powiedziała Mortimer "MIT Technology Review".
Mortimer zauważyła, że liczba spraw, którymi zajmuje się infolinia niemal podwoiła się od początku pandemii COVID-19. Związki przechodzą kryzysy, a większa ilość czasu spędzana w internecie powoduje wzrost nadużyć w formie cyfrowej.
Rosnącej popularności przemocowych deepfake'ów można się spodziewać także wraz z upowszechnianiem się technologii i powstawaniem nowych, dostępnych dla każdego narzędzi. Nowe aplikacje regularnie pojawiają się na e-platformach. W ostatnich dniach na popularności zyskuje technologia Deep Nostalgia. Jak wyjaśniają jej twórcy, ma "ożywiać twarze na archiwalnych zdjęciach i tworzyć realistyczne filmy wysokiej jakości".
"Technologia deepfake stanie się wkrótce bardziej dostępna i nie będzie budzić niczyjego zaskoczenia" - przekonywał na łamach "The Verge" Chris Ume, współtwórca popularnego deepfake'a z Tomem Cruise'm. Tylko że grafik patrzy na to optymistycznie: że technologie da się oswoić i zrozumieć. "To jak Photoshop 20 lat temu. Ludzie nie wiedzieli, co to jest edycja zdjęć, a teraz wiedzą o tych podróbkach" - tłumaczył Ume.
Autor: Krzysztof Jabłonowski, współpraca: Jan Kunert / Źródło: Konkret24; zdjęcie: Shutterstock
Źródło zdjęcia głównego: Shutterstock