O deepfake jest głośno wraz z każdym takim materiałem wstawionym do sieci. Na początku sierpnia zaskoczenie zaawansowaniem tej technologii wywołał filmik, w którym komik Bill Hader zamienia się w Toma Cruise'a. Zastosowanie takich manipulacyjnych rozwiązań staje się jednak coraz groźniejsze - jedna z firm w USA miała stracić z tego powodu kilka milionów dolarów. Rząd Stanów Zjednoczonych chce stworzyć zaawansowane narzędzia do identyfikowania sfałszowanych treści pojawiających się w sieci.

Siedzący w telewizyjnym studiu amerykański komik Bill Hader nagle staje się Tomem Cruisem. Dokładnie w momencie, gdy o aktorze opowiada. Prowadzący program David Letterman, jakby tego nie zauważając, kontynuuje rozmowę i nie reaguje też, gdy twarz Cruise’a znów staje się twarzą Hadera, by ni stąd, ni zowąd zmienić się w aktora Setha Rogena. Wszystko to widać na popularnym w internecie nagraniu - kolejnym z kategorii deepfake.

"Przerażające, niebezpieczne", ale i "świetne, niewiarygodne" - te słowa najczęściej pojawiają się w komentarzach do nagrania umieszczonego w sieci. Jego źródłem jest kanał na YouTube - Ctrl Shift Face, na którym można znaleźć także inne materiały deepfake. W momencie publikacji tego artykułu, film z Haderem-Cruisem-Rogenem ma już prawie 4 miliony odsłon.

Aktorzy, politycy - każdy może znaleźć się w deepfake'u

Deepfake to w największym skrócie fałszywka, do stworzenia której wykorzystano sztuczną inteligencję. W bardziej skomplikowanym tłumaczeniu to rozwiązanie opierające się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w zdjęciach, wideo czy dźwięku - mimiki, intonacji, tików - tak, by móc odtworzyć np. twarz celebryty. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

Pierwsze materiały deepfake pojawiły się pod koniec 2017 roku i wmontowywały twarze sławnych osób w firmy pornograficzne. W kwietniu 2018 roku serwis Buzzfeed stworzył wideo, w którym Barack Obama nazywa prezydenta Donalda Trumpa głupkiem. W rzeczywistości zdania wypowiadał reżyser Jordan Peele, a postać Obamy była wygenerowana na podstawie istniejących nagrań. Deepfake tworzono też z twarzami Władimira Putina, Donalda Trumpa czy Nicholasa Cage'a.

Dziennikarce "The Guardian" udało się dotrzeć do twórcy wideo, w którym Bill Hader zamienia się w innych aktorów. To mieszkający w Czechach Słowak, który przedstawił się jej jako Tom. Twierdzi, że w sumie zrobił już ok. 20 takich materiałów. W jednym z nich w scenie ze "Lśnienia" występuje nie Jack Nicholson, a Jim Carrey. W innym także pojawia się Bill Hader, ale zamienia się w Arnolda Schwarzeneggera, a ten w kolejnej z fałszywek dostaje twarz Sylvestra Stallone.

Oryginalne nagranie, wykorzystane do zrobienia deepfake’a z Haderem i Cruisem, pochodzi z października 2008 r. Komik był wówczas gościem programu Davida Lettermana "Late Show" i m.in. naśladował głosem niektórych aktorów (m.in. właśnie Toma Cruisa czy Arnolda Schwarzeneggera).

Tom zwraca uwagę, że do stworzenia wiarygodnego deepfake’a konieczny jest materiał wysokiej rozdzielczości. "Dlatego ciężko jest zdeepfake’ować postaci historyczne, na przykład Churchilla - bo jest za mało danych", tłumaczy. Nie jest także zadowolony z przeróbki "Lśnienia", w której zamiast Jacka Nicholsona, słynną kwestię "Here’s Johnny" wypowiada Jim Carrey. - Było zbyt duże zbliżenie - tłumaczy.

Wyścig zbrojeń

Dla przeciętnego użytkownika internetu rozpoznawanie fałszywek staje się jednak coraz trudniejsze. Ale i eksperci zwracają uwagę, że zaawansowanie deepfake'ów budzi bardzo dużo obaw, bo nie są już łatwe do rozpoznania. Po obejrzeniu ostatniego z deepfake'ów Ctrl Shift Face, były dyrektor ds. innowacji Storyful Gavin Sheridan napisał na Twitterze: "ono nadal mnie przeraża. Wyobraźcie sobie, że to zostanie użyte jako broń w już i tak pokiereszowanym i ekstremalnym ekosystemie internetowym. Ludzie przestaną wierzyć swoim oczom i uszom".

"Materiały deepfake pogorszą i tak już poważny problem: oszustw i fałszywych informacji, które staną się nie do powstrzymania", skomentował wideo na portalu społecznościowym hiszpański eurodeputowany Luis Garciano.

Tom tworzone przez siebie materiały nazywa "oknem do równoległego wszechświata". W rozmowie z "The Guardian" broni się, że nie tworzy ich po to, by dezinformować. - Zawsze wspominam, że to deepfake w tytule i opisie filmu - nie chcę nikogo wprowadzać w błąd - tłumaczy. Jak twierdzi, jego wideo jest próbą podniesienia świadomości na temat fake newsów i fałszywych nagrań. - To jest wyścig zbrojeń: ktoś tworzy deepfake’i, a ktoś pracuje nad technologiami, które pozwolą na ich wykrywanie - dodaje.

"Jest więcej manipulatorów niż detektorów"

O potrzebie walki z technologiami deepfake coraz częściej publicznie mówi amerykańska administracja. 13 czerwca w Kongresie Stanów Zjednoczonych odbyło się specjalne wysłuchanie poświęcone manipulacjom w sieci. Było ono reakcją m.in. na serię zmanipulowanych filmików z udziałem spikerki Izby Reprezentantów Nancy Pelosi, które zwróciły uwagę Amerykanów na zagrożenia płynące z manipulacji nagraniami wideo.

Podczas wysłuchania kongresmen Adam Schiff (demokrata) przestrzegał przed "rewolucją techniczną, która może umożliwić jeszcze groźniejsze formy oszukiwania i dezinformacji ze strony złośliwych podmiotów, zagranicznych lub krajowych". Na spotkanie zaproszono także naukowców zajmujących się nowymi technologiami, w tym sztuczną inteligencją.

- To jest wyścig - mówił prof. David Doermann z Uniwersytetu w Buffalo i ekspert od sztucznej inteligencji. - Im lepsi stają się manipulatorzy, tym lepsze muszą być mechanizmy wykrywania, a obecnie jest bez wątpienia o rząd więcej manipulatorów niż detektorów - dodał. Badacz wcześniej pracował w Agencji Zaawansowanych Projektów Badawczych z Zakresu Obronności (DARPA), która jest częścią amerykańskiego Departamentu Obrony, a gdzie Doermann był członkiem zespołu Media Forensics (MediFor) zajmującego się deepfake'ami.

- (Ten - red.) Program został wyznaczony jako odpowiedź na obecne i przyszłe możliwości manipulacji, nie jako proste rozwiązanie, ale z wszechstronnym podejściem - powiedział David Doermann. - Tym czego nie oczekiwaliśmy, była jednak szybkość, z jaką ta technologia ewoluuje - dodał.

Podczas wysłuchania w Kongresie dyskutowano także o możliwości narzucenia platformom społecznościowym obowiązku odpowiedniego monitorowania treści deepfake, a także o zmianach prawnych, które pozwoliłyby regulować rozwój sztucznej inteligencji i tworzenie manipulujących materiałów. Jak jednak zwracał uwagę Jack Clark z organizacji badawczej OpenAI, "podobne technologie do tych stosowanych przy tworzeniu tzw. mediów syntetycznych (takich, do powstania których wykorzystuje się algorytmy - red.) lub deepfake'ów, wykorzystuje się także w ważnych badaniach naukowych".  - Są one używane przez naukowców, aby umożliwić osobom z problemami ze słuchem zrozumieć, co mówią do nich inni, lub są wykorzystywane w badaniach molekularnych lub innych działaniach, które mogą zrewolucjonizować medycynę - tłumaczył.

"Technologie manipulowania dynamicznie się rozwijają"

DARPA ogłosiła właśnie otwarte konsultacje, podczas których poinformuje o założeniach nowego programu przeznaczonego do walki z deepfake - Semantic Forensics (SemaFor). Jego celem będzie stworzenie technologii automatycznego rozpoznawania i identyfikacji sfałszowanych treści multimedialnych, a także ochrona przed zautomatyzowanymi programami dezinformacji o dużej skali. Do współtworzenia projektu agencja zaprasza ekspertów i prywatne firmy. Zapowiedziano również ogłoszenie przez rząd Stanów Zjednoczonych Broad Agency - BAA. To procedura, której celem jest podjęcie współpracy z prywatnymi firmami w zakresie realizacji zadań zleconych przez państwo, w tym prowadzenie badań.

"Techniki wykrywania statystycznego okazały się skuteczne, ale technologie generowania i manipulowania treści medialnych dynamicznie się rozwijają. Czysto statystyczne metody wykrywania szybko stają się niewystarczające dla wykrywania sfałszowanych treści" - można przeczytać w komunikacie opublikowanym na stronie Federal Business Opportunities, publikującej ogłoszenia o współpracy z rządem.

Jak wskazuje w ogłoszeniu DARPA, dostępne narzędzia mogą pomijać niektóre treści wytworzone dzięki zaawansowanym narzędziom. Dlatego program SemaFor będzie dążyć do opracowania innowacyjnych technologii semantycznych do analizy mediów. Narzędzia, które zostaną stworzone w programie SemaFor, pozwolą na ustalenie czy materiał jest prawdziwy, czy też został zmanipulowany albo sztucznie wygenerowany. DARPA chce również, by wytworzone narzędzie pozwalało na identyfikację autorów treści, a także na określenie, czy dany materiał został wytworzony w celu dezinformacji. "Technologie pomogą zidentyfikować, powstrzymać i zrozumieć kampanie dezinformacyjne" - można przeczytać w komunikacie.

Stworzenie narzędzia identyfikującego błędy semantyczne byłoby poważnym obciążeniem dla twórców fałszywych treści. "To szansa na zyskanie asymetrycznej przewagi" - napisano w komunikacie DARPA.

Banki narażone na technologie deepfake

Według firmy technologicznej Symantec, w tym roku już trzy duże firmy stały się ofiarami oszustów, wykorzystujących materiały deepfake, bazujące na manipulacji dźwiękiem. W jednym z przypadków, jak podaje "Financial Times", firma przelała 10 mln dolarów przestępcom, którzy wykorzystując sztuczną inteligencję, udawali przez telefon jednego z dyrektorów firmy.

Coraz więcej prywatnych firm także szuka rozwiązań w walce z zaawansowaną manipulacją. W grupie najbardziej narażonej są m.in. banki. Przedstawiciele Symantecu mówią o rosnącej obawie również w branży medycznej i handlowej.

Autor:  Krzysztof Jabłonowski, bebi
Źródło:  Konkret24, The Guardian; defenseone.com, c4isrnet.com; zdjęcie tytułowe: Youtube

Pozostałe

Nie, Facebook nie zakazał używania emotikonów brzoskwiń i bakłażanów

Internauci rozpowszechniają fałszywą informację o rzekomym zakazie używania ikonek brzoskwini i bakłażanów na Facebooku i Instagramie. W rzeczywistości platformy zabraniają publikowania materiałów, które noszą znamiona nagabywania seksualnego. Nie można publikować treści, które są napastliwe seksualnie i które jednocześnie zawierają emotikony uważane za nacechowane seksualnie. Żadne konkretne ikony nie są jednak wskazane.

Popularne w sieci wideo nie jest z Hongkongu. To projekt artystyczny

W mediach społecznościowych bardzo dużą popularność zyskuje krótkie wideo z wynalazkiem, który ma pomóc zmylić system rozpoznawania twarzy. Przekazujący sobie to nagranie internauci piszą, że pochodzi ono z Hongkongu. Jednak przenośny projektor twarzy to część projektu artystycznego holenderskich studentów sprzed dwóch lat. Podkreślają, że produkt tak naprawdę nie działa i apelują o niewykorzystywanie go w celach politycznych.

Dezinformacja - prognozy przed wyborami w USA w 2020 roku

Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.

Odtworzyli głos szefa firmy. Wyłudzili 243 tys. dolarów

Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Chińska aplikacja do podmieniania twarzy podbija rynek. I budzi obawy

Chińska aplikacja ZAO pozwala użytkownikom na "podmienienie" twarzy aktora w klipie z serialu lub filmu na swoją twarz. Efekt jest realistyczny i dostępny w ciągu chwili. Program budzi kontrowersje - nie tylko ze względu na swoje możliwości, ale i na politykę prywatności. Jednocześnie bije jednak rekordy popularności w Azji - w ciągu kilku dni od premiery stała się najczęściej ściąganą aplikacją.