Chińska aplikacja ZAO pozwala użytkownikom na "podmienienie" twarzy aktora w klipie z serialu lub filmu na swoją twarz. Efekt jest realistyczny i dostępny w ciągu chwili. Program budzi kontrowersje - nie tylko ze względu na swoje możliwości, ale i na politykę prywatności. Jednocześnie bije jednak rekordy popularności w Azji - w ciągu kilku dni od premiery stała się najczęściej ściąganą aplikacją.

Wystarczy jedno zdjęcie lub seria zdjęć twarzy, aby wyprodukować deepfake'owe wideo, w którym można stać się superbohaterem ze znanej serii filmów albo postacią z popularnego serialu.

W dużym uproszczeniu, deepfake to fałszywe nagranie stworzone z pomocą sztucznej inteligencji. O tym na czym polega deepfake i jakie zagrożenia niesie za sobą ta technologia, pisaliśmy już na łamach Konkret24.

Pierwsze materiały deepfake pojawiły się pod koniec 2017 roku - wmontowywano wówczas twarze sławnych osób w firmy pornograficzne. Efekt był jednak mało realistyczny. Kolejne nagrania były już dużo lepsze - deepfake tworzono z m.in. twarzami Baracka Obamy, Władimira Putina, Donalda Trumpa, Nicholasa Cage'a, a niedawno Toma Cruise'a. Z każdym kolejnym nagraniem "nowa twarz" była coraz lepiej synchronizowana z resztą ciała, wypowiadane słowa współgrały z gestykulacją, usta układały się dokładniej w wypowiadane słowa.

Aby osiągnąć taki efekt, potrzebny jednak był czas i jeśli nie umiejętność pracy ze sztuczną inteligencją, to dostęp do narzędzi, dzięki którym można było uzyskiwać takie efekty.

"Oto ja jako DiCaprio" - realistyczny deepfake w osiem sekund

Stworzona przez chińską firmę aplikacja pokazała, że tworzenie deepfake'ów może być właściwie dostępne dla każdego i to od ręki. Dobitnie pokazał to na Twitterze użytkownik ZAO.

Jeden z udostępnionych przez niego materiałów jest komplikacją scen z filmów z Leonardo DiCaprio, gdzie twarz aktora została zastąpiona twarzą twitterowicza. Wideo wyświetlono już ponad dwa miliony razy.

"W razie gdybyście nie wiedzieli, #ZAO to chińska aplikacja, która całkiem rozniosła się od piątku. Najlepsza aplikacja do zastępowania twarzy w stylu  AI 'Deepfake', jaką kiedykolwiek widziałem. Oto ja jako DiCaprio (wygenerowany w mniej niż 8 sekund na podstawie jednego zdjęcia z miniaturki)" - czytamy w poście użytkownika aplikacji.

W jednym z kolejnych tweetów zauważa, że "ZAO tak naprawdę nie dąży do 'dokładności' per se, ale raczej do 'subiektywnego', dobrze wyglądającego wyniku".

"Widzę to w filmach/telewizji, wyobrażam sobie zalogowanie się na swoje konto Netflix lub Disney+ - oglądając najnowszy program telewizyjny/film Marvela, gdzie aktor w zostałby automatycznie zastąpiony tobą. Najnowszym członkiem Avengers jesteś TY" - czytamy w kolejnym wpisie użytkownika. Dzięki aplikacji, można w filmach zastąpić także twarz Marilyn Monroe czy chińskich aktorów własną.

Większość komentujących nagrania na Twitterze, nie wykazywała jednak takiego entuzjazmu.

"Szaleństwo! Dla mnie jako dla marketingowca, to jest niesamowite. Ale jako dla konsumenta - przerażające. Każdy może mnie oszukać!", "Przestań wierzyć w to, co widzisz! Chiny biorą się za deepfake'owe oszustwa! Jeśli myślisz, że coś jest... to tego nie ma!" czy "Czy to jest to narzędzie trzeciej wojny światowej, którego od tak dawna się spodziewamy?" - to tylko niektóre z komentarzy, które można na temat aplikacji znaleźć w sieci.

Henry Ajder z firmy Deeptrace, zajmującej się walką z dezinformacją poprzez deepfake, skomentował dla portalu Digital Trends, że ZAO "jest symboliczną reprezentacją technologii (deepfake - red.), która staje się coraz bardziej rozpowszechniona i coraz prostsza do wykorzystywania". Zwraca jednak uwagę, że nie należy do aplikacji podchodzić jako czegoś niezwykłego. - Myślę, że bardzo ważne jest zachowanie czujności i unikanie sensacyjnych reakcji, bo one w dłuższej perspektywie mogą przynieść więcej szkody niż pożytku - stwierdził.

Zasady prywatności zmienione po fali krytyki użytkowników

ZAO swoją premierę miała 30 sierpnia, dwa dni później stała się najczęściej pobieraną aplikacją w chińskim AppStore. Jednocześnie średnia ocen wystawianych przez jej użytkowników to tylko 2,5/5 przy prawie 1500 ocenach. Wiele negatywnych komentarzy krytykowało aplikację za naruszenia prywatności. Także w innych miejscach sieci pojawiły się ostrzeżenia użytkowników na temat zapisów w polityce prywatności. "Aplikacja od deepfake'ów zrobi z nas gwiazdy filmowe - ale czy kiedyś nie będziemy żałować przez ten nasz narcyzm?", pytał jeden z nich.

Jak donosi Bloomberg, w pierwotnej wersji zasad polityki prywatności ZAO można było przeczytać, że aplikacja posiada "wolne, nieodwołalne, trwałe, przekazywalne i podlegające ponownemu  licencjonowaniu" prawa do wszystkich treści wygenerowanych przez użytkownika. Zatem - materiałów, w których pojawiała się jego twarz. W sumie dokument miał ponad 6 tysięcy znaków.

1 września twórcy aplikacji wydali oświadczenie na chińskim portalu społecznościowym Weibo o pracach nad zmianami w polityce prywatności. "W pełni rozumiemy wasze obawy dotyczące kwestii prywatności. Zdajemy sobie sprawę z problemu i zastanawiamy się, jak go rozwiązać. Potrzebujemy trochę czasu" - czytamy we wpisie.

Dwa dni później polityka prywatności została zmieniona. Wynika z niej, że aplikacja nie będzie korzystać ze zdjęć twarzy lub miniaturowych filmów wideo przesyłanych przez użytkowników w celach innych niż poprawa aplikacji lub w innych celach uzgodnionych wcześniej z użytkownikiem. Jeśli użytkownicy usuną przesłane treści, aplikacja obiecuje, że usunie je także ze swoich serwerów.

Jak jednak pisze na Twitterze jeden z ekspertów zajmujących się bezpieczeństwem w sieci, 32 godziny po tym, jak usunął swoje wideo z aplikacji, nadal jest ono dostępne na jej serwerach. "Skłamali. ZAO nie usuwa zdjęć i wideo. Nigdy", skomentował i jako dowód załączył zdjęcia pokazujące, że wprawdzie wideo nie jest widoczne na jego profilu w aplikacji, ale na jej serwerach nadal jest dostępne.

Twórcą aplikacji jest studio Changsha Shenduronghe Network Technology Co., Ltd., należące do Momo,notowanego jest na amerykańskiej giełdzie producenta popularnej chińskiej aplikacji randkowej. ZAO jest dostępna wyłącznie w Chinach.

Autor:  gabs
Źródło:  Konkret24, The Gurardian, Bloomberg: Zdjęcie główne: Shutterstock

Pozostałe

Dezinformacja - prognozy przed wyborami w USA w 2020 roku

Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.

Odtworzyli głos szefa firmy. Wyłudzili 243 tys. dolarów

Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Wyścig zbrojeń XXI wieku. Technologie deepfake coraz lepsze i groźniejsze

O deepfake jest głośno wraz z każdym takim materiałem wstawionym do sieci. Na początku sierpnia zaskoczenie zaawansowaniem tej technologii wywołał filmik, w którym komik Bill Hader zamienia się w Toma Cruise'a. Zastosowanie takich manipulacyjnych rozwiązań staje się jednak coraz groźniejsze - jedna z firm w USA miała stracić z tego powodu kilka milionów dolarów. Rząd Stanów Zjednoczonych chce stworzyć zaawansowane narzędzia do identyfikowania sfałszowanych treści pojawiających się w sieci.

Motocyklowy kask na drodze - pech czy międzynarodowy znak ostrzegawczy?

Internetowy wpis o tym, że kask położony na ziemi za motocyklem jest znakiem ostrzegawczym, wywołał sporą dyskusję w polskim internecie. Polemizował branżowy portal, replikowało jedno z motocyklowych stowarzyszeń. Pomysł na takie wykorzystanie kasku nie jest nowy, ale budzi w środowisku i wątpliwości, i kontrowersje — przesądni uważają, że kask na ziemi przynosi pecha.

Prześlij dalej wiadomość, to zachowasz swoje facebookowe konto. Uwaga na fałszywy łańcuszek

Użytkownicy Facebooka w Polsce przesyłają sobie w wiadomościach prywatnych kilkuzdaniowy apel. W związku z z ostatnią awarią serwisu, aby zachować swoje konto, wiadomość należy przesłać dalej. To nieprawda - Facebook zapewnia, że komunikuje się z użytkownikami w inny sposób. Sam tekst pojawił się dwa lata temu w rosyjskojęzycznym internecie, a wiadomość zawiera zagraniczny numer telefonu, co może sugerować, że nowy łańcuszek jest próbą oszustwa.

Manipulacja nagraniem Marka Zuckerberga i zaskakująca decyzja Facebooka

W sieci można znaleźć nagranie Marka Zuckerberga, napawającego się władzą, jaką daje mu posiadanie danych miliardów ludzi. Założyciel Facebooka w rzeczywistości nigdy nie wypowiedział takich słów, ale wideo powstało po to, żeby wywołać dyskusję o usuwaniu treści przez największy serwis społecznościowy świata. Mimo że wideo opublikowano na początku czerwca, do dzisiaj nie zostało zdjęte z serwisu, a Facebook wytłumaczył, dlaczego podjął taką decyzję.