Portale The Jerusalem Post i Times of Israel publikowały teksty studenta Uniwersytetu w Birmingham Olivera Taylora. Pisał o sprawach społeczności żydowskiej. Dopiero jeden z bohaterów jego tekstu, nazwany "sympatykiem terrorystów", zainteresował się, czy Oliver Taylor istnieje.
Mazen Masri, londyński naukowiec i mąż palestyńskiej aktywistki Ryvki Barnard, zainteresował się artykułem opublikowanym w sieci, w którym wraz z żoną zostali określeni "znanymi sympatykami terrorystów". Jego uwagę przykuło zdjęcie autora tekstu znalezione w internecie - studenta Uniwersytetu w Birmingham o nazwisku Oliver Taylor. Masriemu fotografia młodego mężczyzny wydawała się nie w porządku. Intuicja go nie myliła.
Na portalu Quora, gdzie internauci zadają pytania i odpowiadają na pytania innych, Oliver Taylor przedstawia się jako 24-letni student, barista i aktywista polityczny. Na zdjęciu profilowym widać młodego mężczyznę z brązowymi oczami i przyjaznym uśmiechem.
fałsz
"W ciągu tygodnia pracuję nad ukończeniem studiów magisterskich z zakresu nauk politycznych, a w weekend jestem pochłonięty sprawami kawy. Albo ją zaparzam, albo piję" – przedstawił się Taylor w krótkiej notce w Quora.
Agencja Reuters opisuje, że - oprócz tekstu, w którym wspomniał Mazena Masriego - polityczne zacięcie Taylora ujawniało się również w publikacjach m.in. na portalach Jerusalem Post i Times of Israel. Widać w nich było zainteresowanie sprawami społeczności żydowskiej i antysemityzmem.
Oliver Taylor nie istnieje
Reuters sprawdził, że w bazach danych Uniwersytetu w Birmingham nie ma jednak śladu po 24-letnim studencie. Przedstawiciele mediów, w których Taylor publikował, twierdzą, że wysyłał im teksty e-mailem, nie prosząc o zapłatę. Wydawcy nie zrobili nic, by zweryfikować jego tożsamość. "Nie jesteśmy agencją kontrwywiadowczą" - powiedział Reutersowi redaktor naczelny gazety "The Algemeiner" Dovid Efune, choć przyznał, że od kiedy dziennikarze zainteresowali się fikcyjną postacią Olivera Taylora gazeta wprowadziła dodatkowe środki ostrożności.
Redakcje "Algemeiner" i portalu Times of Israel usunęły już artykuły fikcyjnego studenta ze swoich stron internetowych. Taylor miał wysłać do obu redakcji e-maila, w którym zaprotestował przeciwko takim działaniom.
Artykuł podpisany nazwiskiem Taylora usunął również serwis The Jerusalem Post. Na portalu Arutz Sheva tekst Taylora wciąż można przeczytać, choć został znacznie skrócony w stosunku do pierwotnej wersji. Usunięto m.in. akapit określający "znanymi sympatykami terrorystów" aktywistkę na rzecz praw Palestyńczyków Ryvkę Barnard i jej męża Mazena Masri. Bo to właśnie Masri poinformował Reutersa o tajemniczym studencie Uniwersytetu w Birmingham.
Małżeństwo zaprzecza związkom z terrorystami. Barnard i Masri byli zadziwieni, dlaczego miałby o nich napisać młody student. Mazen Masri powiedział Reutersowi o swoich podejrzeniach co do zdjęcia profilowego Olivera Taylora.
Zniekształcenia i niespójności w fotografii
Reuters poprosił o opinię sześciu ekspertów. Wszyscy potwierdzili, że w fotografii są ślady wykorzystania oprogramowania opartego na sztucznej inteligencji.
"Zniekształcenia i niespójności w tle są znakiem rozpoznawczym zsyntetyzowanego obrazu, podobnie jak kilka błysków na jego szyi i kołnierzu" - powiedział Reutersowi Hany Farid, pionier kryminalistyki cyfrowej z Uniwersytetu Kalifornijskiego w Berkeley.
Artysta Mario Klingemann, który regularnie używa w swojej pracy technologii deepfake, stwierdził, że zdjęcie ma jej wszystkie cechy charakterystyczne. "Jestem w stu procentach pewien" – powiedział.
Na mapie ciepła stworzonej przy pomocy algorytmów izraelskiego start-upu Cyabra, specjalizującego się w wykrywaniu zmanipulowanych obrazów, zaznaczono miejsca możliwej edycji grafiki. Zdaniem Dana Bahmy, przedstawiciela firmy, sztucznie wytworzone obrazy są niebezpieczne, ponieważ dzięki nim można stworzyć "zupełnie niewykrywalną tożsamość".
Plusy i minusy sztucznej inteligencji w obrazach
O sztucznie stworzonych grafikach przedstawiających twarze pisaliśmy już w Konkret24. Do stworzenia fałszywych obrazów wykorzystuje się algorytmy głębokiego uczenia (sztuczną inteligencję) GAN - generative adversarial networks - bazujące na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Schematami w tym przypadku są np. proporcje twarzy, ustawienie oczu, włosy, a zbiorami danych - zdjęcia realnie istniejących osób. Na bazie tej analizy sieć generuje zdjęcia osób, które nigdy nie istniały.
Technologia może przynieść wiele korzyści np. branży gier komputerowych czy efektów specjalnych w filmach. Pozwala na szybkie i wygodniejsze stworzenie bohatera o wyglądzie idealnie pasującym do koncepcji projektu. Beneficjentami rozwoju tej technologii są również banki zdjęć i agencje reklamowe. Wśród potencjalnych zagrożeń wymienia się przede wszystkim możliwość tworzenia fałszywych tożsamości i wykorzystywania ich nie tylko w propagandowej, ale i w czysto przestępczej działalności.
Potencjalnie większe zagrożenie stwarza technologia deepfake w sfałszowanych nagraniach wideo. Pierwsze takie materiały pojawiły się pod koniec 2017 roku - wmontowywano wówczas twarze sławnych osób w firmy pornograficzne. Efekt był jednak mało realistyczny. Kolejne nagrania były już dużo lepsze - deepfake tworzono z m.in. twarzami Baracka Obamy, Władimira Putina, Donalda Trumpa, Nicholasa Cage'a, czy Toma Cruise'a.
Jak rozpoznać fejkowe zdjęcie
Artykuły autorstwa rzekomego Olivera Taylora nie cieszyły się zainteresowaniem czytelników, ale zdaniem Miriam Herschlag z portalu Times of Israel tego typu przypadki rodzą niebezpieczeństwo. Nie tylko dlatego, że wprowadzają fałsz w dyskusje prowadzone w mediach. Sprawiają, że młodym, nieznanym autorom może być trudniej publikować swoje materiały. "Absolutnie musimy odsiać oszustów i wzmocnić naszą obronę" – powiedziała Hershlag agencji Reutersa. "Ale nie chcę stawiać barier, które uniemożliwiają usłyszenie nowych głosów" – dodała.
Sprawa fikcyjnego studenta Uniwersytetu w Birmingham to przykład operacji, których celem jest wprowadzanie do dyskusji publicznej propagandowych lub dezinformujących treści. W tym wypadku chodziło o promowanie polityki społeczności żydowskiej. Jak opisywaliśmy w Konkret24, niedawna publikacja portalu The Daily Beast ujawniła sieć fałszywych dziennikarzy, którym udało się publikować materiały m.in. w amerykańskich portalach Newsmax czy Washington Examiner.
Jak rozpoznać fałszywe zdjęcie powstałe przy wykorzystaniu sztucznej inteligencji? Algorytmy stają się coraz doskonalsze, wciąż jednak popełniają błędy. Na niektórych grafikach widać różnice w symetrycznych elementach portretu. Czerwona lampka powinna się zapalić, jeśli dostrzeżemy dwa różne kolczyki albo różniące się dwie strony okularów.
Reuters, analizując elementy fotografii Olivera Taylora, wskazuje różne wzory kołnierzyka koszuli. Z lewej strony na materiale widać wzór, z prawej kołnierzyk jest gładki.
Autor: Krzysztof Jabłonowski / Źródło: Konkret24, Reuters; zdęcie: Shutterstock/Cyabra/Reuters
Źródło zdjęcia głównego: Shutterstock/Cyabra/Reuters