Portale The Jerusalem Post i Times of Israel publikowały teksty studenta Uniwersytetu w Birmingham Olivera Taylora. Pisał o sprawach społeczności żydowskiej. Dopiero jeden z bohaterów jego tekstu, nazwany "sympatykiem terrorystów", zainteresował się, czy Oliver Taylor istnieje.

Mazen Masri, londyński naukowiec i mąż palestyńskiej aktywistki Ryvki Barnard, zainteresował się artykułem opublikowanym w sieci, w którym wraz z żoną zostali określeni "znanymi sympatykami terrorystów". Jego uwagę przykuło zdjęcie autora tekstu znalezione w internecie - studenta Uniwersytetu w Birmingham o nazwisku Oliver Taylor. Masriemu fotografia młodego mężczyzny wydawała się nie w porządku. Intuicja go nie myliła.

Olbrzymie możliwości technologii deepfake

Na portalu Quora, gdzie internauci zadają pytania i odpowiadają na pytania innych, Oliver Taylor przedstawia się jako 24-letni student, barista i aktywista polityczny. Na zdjęciu profilowym widać młodego mężczyznę z brązowymi oczami i przyjaznym uśmiechem.

Profil Olivera Taylora na portalu Quora
Profil Olivera Taylora na portalu Quora Foto: Quora

"W ciągu tygodnia pracuję nad ukończeniem studiów magisterskich z zakresu nauk politycznych, a w weekend jestem pochłonięty sprawami kawy. Albo ją zaparzam, albo piję" – przedstawił się Taylor w krótkiej notce w Quora.

Agencja Reuters opisuje, że - oprócz tekstu, w którym wspomniał Mazena Masriego - polityczne zacięcie Taylora ujawniało się również w publikacjach m.in. na portalach Jerusalem Post i Times of Israel. Widać w nich było zainteresowanie sprawami społeczności żydowskiej i antysemityzmem.

Oliver Taylor nie istnieje

Reuters sprawdził, że w bazach danych Uniwersytetu w Birmingham nie ma jednak śladu po 24-letnim studencie. Przedstawiciele mediów, w których Taylor publikował, twierdzą, że wysyłał im teksty e-mailem, nie prosząc o zapłatę. Wydawcy nie zrobili nic, by zweryfikować jego tożsamość. "Nie jesteśmy agencją kontrwywiadowczą" - powiedział Reutersowi redaktor naczelny gazety "The Algemeiner" Dovid Efune, choć przyznał, że od kiedy dziennikarze zainteresowali się fikcyjną postacią Olivera Taylora gazeta wprowadziła dodatkowe środki ostrożności.

Redakcje "Algemeiner" i portalu Times of Israel usunęły już artykuły fikcyjnego studenta ze swoich stron internetowych. Taylor miał wysłać do obu redakcji e-maila, w którym zaprotestował przeciwko takim działaniom.

Widoczna w Google Cache zapowiedź na stronie The Jerusalem Post potwierdza publikację artykułu Olivera Taylora w tym serwisie
Widoczna w Google Cache zapowiedź na stronie The Jerusalem Post potwierdza publikację artykułu Olivera Taylora w tym serwisie Foto: jpost.com/Google

Artykuł podpisany nazwiskiem Taylora usunął również serwis The Jerusalem Post. Na portalu Arutz Sheva tekst Taylora wciąż można przeczytać, choć został znacznie skrócony w stosunku do pierwotnej wersji. Usunięto m.in. akapit określający "znanymi sympatykami terrorystów" aktywistkę na rzecz praw Palestyńczyków Ryvkę Barnard i jej męża Mazena Masri. Bo to właśnie Masri poinformował Reutersa o tajemniczym studencie Uniwersytetu w Birmingham.

Małżeństwo zaprzecza związkom z terrorystami. Barnard i Masri byli zadziwieni, dlaczego miałby o nich napisać młody student. Mazen Masri powiedział Reutersowi o swoich podejrzeniach co do zdjęcia profilowego Olivera Taylora.

Zniekształcenia i niespójności w fotografii

Reuters poprosił o opinię sześciu ekspertów. Wszyscy potwierdzili, że w fotografii są ślady wykorzystania oprogramowania opartego na sztucznej inteligencji.

"Zniekształcenia i niespójności w tle są znakiem rozpoznawczym zsyntetyzowanego obrazu, podobnie jak kilka błysków na jego szyi i kołnierzu" - powiedział Reutersowi Hany Farid, pionier kryminalistyki cyfrowej z Uniwersytetu Kalifornijskiego w Berkeley.

Artysta Mario Klingemann, który regularnie używa w swojej pracy technologii deepfake, stwierdził, że zdjęcie ma jej wszystkie cechy charakterystyczne. "Jestem w stu procentach pewien" – powiedział.

Mapa ciepła stworzona przy pomocy algorytmów firmy Cyabra. Wyróżnione elementy grafiki wskazują na miejsca możliwej manipulacji
Mapa ciepła stworzona przy pomocy algorytmów firmy Cyabra. Wyróżnione elementy grafiki wskazują na miejsca możliwej manipulacji Foto: Cyabra/Reuters

Na mapie ciepła stworzonej przy pomocy algorytmów izraelskiego start-upu Cyabra, specjalizującego się w wykrywaniu zmanipulowanych obrazów, zaznaczono miejsca możliwej edycji grafiki. Zdaniem Dana Bahmy, przedstawiciela firmy, sztucznie wytworzone obrazy są niebezpieczne, ponieważ dzięki nim można stworzyć "zupełnie niewykrywalną tożsamość".

Plusy i minusy sztucznej inteligencji w obrazach

O sztucznie stworzonych grafikach przedstawiających twarze pisaliśmy już w Konkret24. Do stworzenia fałszywych obrazów wykorzystuje się algorytmy głębokiego uczenia (sztuczną inteligencję) GAN - generative adversarial networks - bazujące na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Schematami w tym przypadku są np. proporcje twarzy, ustawienie oczu, włosy, a zbiorami danych - zdjęcia realnie istniejących osób. Na bazie tej analizy sieć generuje zdjęcia osób, które nigdy nie istniały.

Technologia może przynieść wiele korzyści np. branży gier komputerowych czy efektów specjalnych w filmach. Pozwala na szybkie i wygodniejsze stworzenie bohatera o wyglądzie idealnie pasującym do koncepcji projektu. Beneficjentami rozwoju tej technologii są również banki zdjęć i agencje reklamowe. Wśród potencjalnych zagrożeń wymienia się przede wszystkim możliwość tworzenia fałszywych tożsamości i wykorzystywania ich nie tylko w propagandowej, ale i w czysto przestępczej działalności.

Potencjalnie większe zagrożenie stwarza technologia deepfake w sfałszowanych nagraniach wideo. Pierwsze takie materiały pojawiły się pod koniec 2017 roku - wmontowywano wówczas twarze sławnych osób w firmy pornograficzne. Efekt był jednak mało realistyczny. Kolejne nagrania były już dużo lepsze - deepfake tworzono z m.in. twarzami Baracka Obamy, Władimira Putina, Donalda Trumpa, Nicholasa Cage'a, czy Toma Cruise'a.

Jak rozpoznać fejkowe zdjęcie

Artykuły autorstwa rzekomego Olivera Taylora nie cieszyły się zainteresowaniem czytelników, ale zdaniem Miriam Herschlag z portalu Times of Israel tego typu przypadki rodzą niebezpieczeństwo. Nie tylko dlatego, że wprowadzają fałsz w dyskusje prowadzone w mediach. Sprawiają, że młodym, nieznanym autorom może być trudniej publikować swoje materiały. "Absolutnie musimy odsiać oszustów i wzmocnić naszą obronę" – powiedziała Hershlag agencji Reutersa. "Ale nie chcę stawiać barier, które uniemożliwiają usłyszenie nowych głosów" – dodała.

Sprawa fikcyjnego studenta Uniwersytetu w Birmingham to przykład operacji, których celem jest wprowadzanie do dyskusji publicznej propagandowych lub dezinformujących treści. W tym wypadku chodziło o promowanie polityki społeczności żydowskiej. Jak opisywaliśmy w Konkret24, niedawna publikacja portalu The Daily Beast ujawniła sieć fałszywych dziennikarzy, którym udało się publikować materiały m.in. w amerykańskich portalach Newsmax czy Washington Examiner.

Jak rozpoznać fałszywe zdjęcie powstałe przy wykorzystaniu sztucznej inteligencji? Algorytmy stają się coraz doskonalsze, wciąż jednak popełniają błędy. Na niektórych grafikach widać różnice w symetrycznych elementach portretu. Czerwona lampka powinna się zapalić, jeśli dostrzeżemy dwa różne kolczyki albo różniące się dwie strony okularów.

Po lewej stronie grafiki kołnierzyk Olivera Taylora ma wzór, po prawej jest gładki
Po lewej stronie grafiki kołnierzyk Olivera Taylora ma wzór, po prawej jest gładki Foto: Reuters

Reuters, analizując elementy fotografii Olivera Taylora, wskazuje różne wzory kołnierzyka koszuli. Z lewej strony na materiale widać wzór, z prawej kołnierzyk jest gładki.

Autor:  Krzysztof Jabłonowski
Źródło:  Konkret24, Reuters; zdęcie: Shutterstock/Cyabra/Reuters

Pozostałe

Petycja anty-5G, czyli jak radni Kraśnika zostali wprowadzeni w błąd

Nie ma badań przeczących szkodliwości 5G, promieniowanie elektromagnetyczne jest szkodliwe dla ludzi i środowiska, a jego skutkiem są nowotwory i bezpłodność - takie m.in. tezy zawiera petycja "Stop zagrożeniu życia i zdrowia" przygotowana przez Stowarzyszenie Koalicja Polska Wolna od 5G. Wyjaśniamy, dlaczego twierdzenia te nie są prawdziwe.

Nie, to nie "epicka ucieczka", a komputerowa animacja

Efektowny filmik pokazujący "epicką ucieczkę" przed policyjnym radiowozem w Wielkiej Brytanii intensywnie krąży po sieci. Niektórzy internauci sugerują, że to nagranie wyczynów kaskaderskich, ale w rzeczywistości scena została wygenerowana przez specjalistów od grafiki 3D. Nie jest to ich pierwsze dzieło, które dotarło do szerokiej publiczności.

Nie, internetowy tłumacz nie ujawnia preferencji politycznych. To błąd oprogramowania

Internauci zauważyli, że Tłumacz Google nie podaje dobrych tłumaczeń niektórych wyrażeń. Po wpisaniu po polsku "Duda szkodzi" angielskie tłumaczenie brzmi: "Duda is okay". Przedstawiciel Google Polska informuje, że takie działanie oprogramowania jest wynikiem błędu. Nie mamy dowodów, że wprowadzenie systemu w błąd jest celowym zabiegiem.

Nie, Robert Lewandowski nie rozdaje kart podarunkowych i samochodów

Jeśli przeczytasz na Facebooku wpis zachęcający do udziału w konkursie, w którym Robert Lewandowski ma losować karty podarunkowe, samochody, domy i nagrody pieniężne – nie daj się nabrać. Od kilku dni w internecie trwa akcja z wykorzystaniem fikcyjnych kont, której celem jest pozyskiwanie od internautów numerów kart kredytowych i naciąganie ich na rzekomo darmowe usługi.

Kosiniak-Kamysz: czy mamy "bezpieczne badania" na temat 5G? Tak, mamy

Komentując oświadczenie prezydentów Polski i USA o współpracy w rozwijaniu rozwiązań technologicznych, w tym 5G, Władysław Kosiniak-Kamysz na wiecu wyborczym przypomniał obawy ludzi przed tą technologią. I pytał, czy "mamy bezpieczne badania", które mogą rozwiać ich wątpliwości. Badań naukowych przeczących szkodliwości pola elektromagnetycznego jest wiele; są też dotyczące technologii 5G.