Chociaż technologia tworzenia filmów typu deep fake staje się coraz bardziej doskonała i powszechna, naukowcy z Rochester Institute of Technology zapowiadają, że także narzędzia do weryfikacji takich nagrań będą wkrótce dostępne. Przedstawiają dwie metody, które są wykorzystywane.

Dziennikarze na całym świecie wkrótce będą mogli korzystać z narzędzia pozwalającego na wykrywanie materiałów typu deep fake - zapowiadają John Sohrawardi i Matthew Wright, badacze z Rochester Institute of Technology. Ich zdaniem za kilka lat takie narzędzie może być używane przez każdego, kto będzie chciał sam wyłapywać i usuwać fałszywe wideo publikowane w jego mediach społecznościowych.

Sohrawardi i Wright są autorami artykułu na ten temat, który opublikował portal The Conversation. Poniżej przestawiamy jego tłumaczenie (śródtytuły pochodzą od redakcji).

Jak radzić sobie z deep fake'ami? "Do dziennikarzy należałoby ustalenie, co jest prawdą, a co jest fejkiem"

Widzimy przyszłość dla takich narzędzi

Dziennikarz śledczy dostaje wideo od anonimowego informatora. Film przedstawia kandydata na prezydenta przyznającego się do działań niezgodnych z prawem. Ale czy to nagranie jest prawdziwe? Jeśli tak, to byłaby to bardzo ważna historia - może najważniejszy materiał w karierze tego dziennikarza, która mógłby zmienić bieg kampanii wyborczej i wynik nadchodzących wyborów.

Ale dziennikarz sprawdza wideo za pomocą specjalistycznego narzędzia - ono pokazuje, że nagranie nie jest tym, czym się wydaje. To tak naprawdę deep fake, film stworzony przy użyciu sztucznej inteligencji i deep learning, czyli głębokiego uczenia się (rodzaj uczenia maszynowego; na dużych zbiorach informacji sztuczna inteligencja doskonali swoje umiejętności rozpoznawania tekstu, obrazu i dźwięku - red.).

Jako naukowcy, którzy już od jakiegoś czasu badają sposoby wykrywania deep fake'ow, widzimy przyszłość dla takich narzędzi. Nie rozwiążą wszystkich naszych problemów, ale będą częścią arsenału broni do walki z dezinformacją.

Dlaczego demaskowanie deep fake'ów jest takie ważne

Wielu z nas wie, że nie można wierzyć we wszystko, co się widzi. Przez ostatnie kilka dekad świadomi odbiorcy informacji przyzwyczaili się do oglądania zdjęć z przerobionych za pomocą programów do fotoedycji. Jednak wideo to inna historia. Hollywoodzcy reżyserzy, by stworzyć realistyczną scenę, potrafią wydać miliony dolarów na efekty specjalne. A przy użyciu technologii deep fake amatorzy ze sprzętem komputerowym za kilka tysięcy dolarów w ciągu kilku tygodni mogą stworzyć coś, co do złudzenia imituje rzeczywistość.

Deep fake'i pozwalają umieścić w filmowych scenach osoby, które nigdy w nich nie wystąpiły - na przykład Toma Cruise'a w roli Iron Mana - co czyni tego typu materiały zabawnymi. Niestety, dzięki tej samej technologii możliwe jest również tworzenie fałszywej pornografii, bez zgody przedstawionych w nich osób (o tego typu fałszywych nagraniach pisaliśmy w Konkret24 - red.). To one są dziś głównymi ofiarami nadużyć technologii deep fake.

Technologia ta może być wykorzystana do tworzenia filmów, w których polityczni przywódcy mówią rzeczy, jakich nigdy nie powiedzieli. W 2018 roku Belgijska Partia Socjalistyczna opublikowała słabej jakości nagranie, na którym prezydent Trump miał obrażać Belgię. To nie deep fake, ale jest to nieprawdziwe wideo. Uzyskało wystarczająco dużo reakcji, by pokazać potencjalne zagrożenia związane z pojawieniem się wysokiej jakości deep fake'ów.

Niebezpieczne jest także i to, że można je wykorzystać, by wzbudzić wątpliwości co do autentyczności prawdziwych filmów - sugerując, że mogły powstać z wykorzystaniem sztucznej inteligencji.

Biorąc pod uwagę te zagrożenia, wyjątkowo cenna byłaby możliwość wykrycia fałszywych nagrań i wyraźnego oznaczenia ich. Dzięki temu fałszywe wideo nie wprowadzałoby w błąd opinii publicznej, a prawdziwe nagrania mogłyby nadal być uznawane za autentyczne.

Dwie metody wykrywania deep fake'ów

Wykrywanie fałszywych nagrań stało się przedmiotem badań naukowców nieco ponad trzy lata temu. Początkowo prace koncentrowały się na wykrywaniu zauważalnych problemów w nagraniach deep fake, np. ich bohaterowie nie mrugali. Z czasem jednak takie materiały stawały się coraz lepsze w naśladowaniu prawdziwych filmów. Tym samym dostrzeżenie, czy wideo to deep fake, czy nie, stało się trudne zarówno dla ludzi, jak i dla narzędzi mających to wykrywać.

Są dwa główne sposoby na wykrywanie deep fake'ów. Pierwszy polega na analizie zachowań konkretnych ludzi widocznych na nagraniach. Załóżmy, że masz sporo materiału wideo z udziałem kogoś sławnego - na przykład byłego prezydenta Stanów Zjednoczonych Baracka Obamy. Sztuczna inteligencja (AI) potrafi wykorzystać informacje z nagrań, by nauczyć się zachowań Obamy: od gestów dłoni po to, kiedy robi pauzy w mówieniu. Sztuczna inteligencja może wtedy przeanalizować deep fake'a z Obamą i zauważyć, gdzie jego zachowanie nie pasuje do schematu. Ten sposób może działać, nawet jeśli sama jakość zmanipulowanego wideo jest praktycznie doskonała.

Spot typu deepfake przygotowany przez belgijską partię sp.a

Inni badacze, w tym nasz zespół, koncentrują się na różnicach między deep fake'em a prawdziwym nagraniem. Filmy deep fake są często tworzone poprzez łączenie indywidualnie wygenerowanych kadrów. Dlatego metody naszego zespołu pozwalają wyodrębnić istotne informacje z twarzy widocznych w poszczególnych klatkach filmu, a następnie śledzić je poprzez kolejne zestawy ujęć. Pozwala to na wykrycie niespójności w przepływie informacji z jednej klatki na drugą. Podobną metodę stosujemy również w naszym systemie weryfikacji dźwięku.

Te subtelne szczegóły są trudne do dostrzeżenia przez ludzi, ale pokazują, że nagrania deep fake nie są jeszcze całkiem doskonałe. Detektory fałszywych nagrań mogą przydać się każdemu, nie tylko garstce światowych liderów. Może się okazać, że oba podejścia do wykrywania deep fake'ów znajdą się w użyciu.

Najnowsze systemy weryfikacji bardzo dobrze sprawdzają się w przypadku filmów zgromadzonych specjalnie w celu oceny tych narzędzi. Niestety, nawet najlepsze słabo radzą sobie z filmami znalezionymi w internecie. Ulepszenie tych narzędzi tak, aby stały się bardziej użyteczne, będzie kluczowe.

Dziennikarze pierwszą linią obrony

Dobrze byłoby, gdyby każdy miał dostęp do narzędzi pozwalających na weryfikację deep fake'ow. Dziś ta technologia znajduje się we wczesnej fazie rozwoju. Zanim zostanie udostępniona na szeroką skalę, naukowcy muszą ją udoskonalić i chronić przed hakerami.

Jednak w tym samym czasie narzędzia do tworzenia deep fake'ów są dostępne dla każdego, kto chce oszukać opinię publiczną. Czekanie na ostateczną technologię demaskująca je nie wchodzi więc w grę. Dla naszego zespołu właściwą równowagą była praca z dziennikarzami, ponieważ to oni są pierwszą linią obrony przed rozprzestrzenianiem się dezinformacji.

Przed opublikowaniem historii dziennikarze muszą zweryfikować uzyskane informacje. Dysponują już sprawdzonymi metodami jak konsultacje z ekspertami i sprawdzanie kluczowych faktów przez więcej niż jedną osobę. Oddając narzędzie w ich ręce, przekazujemy im więcej informacji i wiemy, że nie będą polegać wyłącznie na technologii, gdyż i ta może popełniać błędy.

Jako badacze podejmujemy wyzwanie

Dobrze jest widzieć, że zespoły Facebooka i Microsoftu inwestują w technologię, by zrozumieć i wykrywać nagrania deep fake. By dotrzymać kroku postępowi tej technologii, potrzeba więcej badań. Dziennikarze i portale społecznościowe muszą także wypracować najlepsze możliwe sposoby ostrzegania ludzi przed wykrytymi fałszywymi nagraniami. Badania pokazały, że ludzie pamiętają kłamstwo, ale nie fakt, że było ono kłamstwem. Czy ten sam problem będzie dotyczył fałszywych filmów? Samo umieszczenie w tytule "deep fake" może nie wystarczyć.

Nagrania typu deep fake już są - i z nami zostaną. Ponieważ sztuczna inteligencja staje się coraz bardziej skuteczna, zarządzanie dezinformacją i ochrona społeczeństwa będą trudniejsze niż kiedykolwiek wcześniej. Jesteśmy częścią rosnącej społeczności badawczej, która podejmuje wyzwanie, jakim jest technologia deep fake.


jest doktorantem nauk informatycznych Rochester Institute of Technology. Profesor specjalizujący się w bezpieczeństwie cyfrowym jest kierownikiem badań Global Cybersecurity Institute w Rochester Institute of Technology. Ich artykuł został opublikowany w portalu The Conversation pt. "In a battle of AI versus AI, researchers are preparing for the coming wave of deepfake propaganda". Tłumaczenie na podstawie licencji Creative Commons.

Autor:  John Sohrawardi i Matthew Wright (tłum. Gabriela Sieczkowska)
Źródło:  The Conversation; zdjęcie: Shutterstock

Pozostałe

Petycja anty-5G, czyli jak radni Kraśnika zostali wprowadzeni w błąd

Nie ma badań przeczących szkodliwości 5G, promieniowanie elektromagnetyczne jest szkodliwe dla ludzi i środowiska, a jego skutkiem są nowotwory i bezpłodność - takie m.in. tezy zawiera petycja "Stop zagrożeniu życia i zdrowia" przygotowana przez Stowarzyszenie Koalicja Polska Wolna od 5G. Wyjaśniamy, dlaczego twierdzenia te nie są prawdziwe.

Nie, to nie "epicka ucieczka", a komputerowa animacja

Efektowny filmik pokazujący "epicką ucieczkę" przed policyjnym radiowozem w Wielkiej Brytanii intensywnie krąży po sieci. Niektórzy internauci sugerują, że to nagranie wyczynów kaskaderskich, ale w rzeczywistości scena została wygenerowana przez specjalistów od grafiki 3D. Nie jest to ich pierwsze dzieło, które dotarło do szerokiej publiczności.