Deep fake'ów w sieci już nie unikniemy - naukowcy o możliwości ich weryfikacji

Walka z deep fake'amiShutterstock

Chociaż technologia tworzenia filmów typu deep fake staje się coraz bardziej doskonała i powszechna, naukowcy z Rochester Institute of Technology zapowiadają, że także narzędzia do weryfikacji takich nagrań będą wkrótce dostępne. Przedstawiają dwie metody, które są wykorzystywane.

Pokazujemy, co jest prawdą, a co fałszem
Weryfikujemy fake newsy, sprawdzamy dane, analizujemy informacje z sieci

Dziennikarze na całym świecie wkrótce będą mogli korzystać z narzędzia pozwalającego na wykrywanie materiałów typu deep fake - zapowiadają John Sohrawardi i Matthew Wright, badacze z Rochester Institute of Technology. Ich zdaniem za kilka lat takie narzędzie może być używane przez każdego, kto będzie chciał sam wyłapywać i usuwać fałszywe wideo publikowane w jego mediach społecznościowych.

Sohrawardi i Wright są autorami artykułu na ten temat, który opublikował portal The Conversation. Poniżej przestawiamy jego tłumaczenie (śródtytuły pochodzą od redakcji).

Jak radzić sobie z deep fake'ami? "Do dziennikarzy należałoby ustalenie, co jest prawdą, a co jest fejkiem"
Jak radzić sobie z deep fake'ami? "Do dziennikarzy należałoby ustalenie, co jest prawdą, a co jest fejkiem"Fakty o Świecie TVN24 BiS

Widzimy przyszłość dla takich narzędzi

Dziennikarz śledczy dostaje wideo od anonimowego informatora. Film przedstawia kandydata na prezydenta przyznającego się do działań niezgodnych z prawem. Ale czy to nagranie jest prawdziwe? Jeśli tak, to byłaby to bardzo ważna historia - może najważniejszy materiał w karierze tego dziennikarza, która mógłby zmienić bieg kampanii wyborczej i wynik nadchodzących wyborów.

Ale dziennikarz sprawdza wideo za pomocą specjalistycznego narzędzia - ono pokazuje, że nagranie nie jest tym, czym się wydaje. To tak naprawdę deep fake, film stworzony przy użyciu sztucznej inteligencji i deep learning, czyli głębokiego uczenia się (rodzaj uczenia maszynowego; na dużych zbiorach informacji sztuczna inteligencja doskonali swoje umiejętności rozpoznawania tekstu, obrazu i dźwięku - red.).

Jako naukowcy, którzy już od jakiegoś czasu badają sposoby wykrywania deep fake'ow, widzimy przyszłość dla takich narzędzi. Nie rozwiążą wszystkich naszych problemów, ale będą częścią arsenału broni do walki z dezinformacją.

Dlaczego demaskowanie deep fake'ów jest takie ważne

Wielu z nas wie, że nie można wierzyć we wszystko, co się widzi. Przez ostatnie kilka dekad świadomi odbiorcy informacji przyzwyczaili się do oglądania zdjęć z przerobionych za pomocą programów do fotoedycji. Jednak wideo to inna historia. Hollywoodzcy reżyserzy, by stworzyć realistyczną scenę, potrafią wydać miliony dolarów na efekty specjalne. A przy użyciu technologii deep fake amatorzy ze sprzętem komputerowym za kilka tysięcy dolarów w ciągu kilku tygodni mogą stworzyć coś, co do złudzenia imituje rzeczywistość.

Deep fake'i pozwalają umieścić w filmowych scenach osoby, które nigdy w nich nie wystąpiły - na przykład Toma Cruise'a w roli Iron Mana - co czyni tego typu materiały zabawnymi.Niestety, dzięki tej samej technologii możliwe jest również tworzenie fałszywej pornografii, bez zgody przedstawionych w nich osób (o tego typu fałszywych nagraniach pisaliśmy w Konkret24 - red.). To one są dziś głównymi ofiarami nadużyć technologii deep fake.

Technologia ta może być wykorzystana do tworzenia filmów, w których polityczni przywódcy mówią rzeczy, jakich nigdy nie powiedzieli. W 2018 roku Belgijska Partia Socjalistyczna opublikowała słabej jakości nagranie, na którym prezydent Trump miał obrażać Belgię. To nie deep fake, ale jest to nieprawdziwe wideo. Uzyskało wystarczająco dużo reakcji, by pokazać potencjalne zagrożenia związane z pojawieniem się wysokiej jakości deep fake'ów.

Niebezpieczne jest także i to, że można je wykorzystać, by wzbudzić wątpliwości co do autentyczności prawdziwych filmów - sugerując, że mogły powstać z wykorzystaniem sztucznej inteligencji.

Biorąc pod uwagę te zagrożenia, wyjątkowo cenna byłaby możliwość wykrycia fałszywych nagrań i wyraźnego oznaczenia ich. Dzięki temu fałszywe wideo nie wprowadzałoby w błąd opinii publicznej, a prawdziwe nagrania mogłyby nadal być uznawane za autentyczne.

Dwie metody wykrywania deep fake'ów

Wykrywanie fałszywych nagraństało się przedmiotem badań naukowców nieco ponad trzy lata temu. Początkowo prace koncentrowały się na wykrywaniu zauważalnych problemów w nagraniach deep fake, np. ich bohaterowie nie mrugali. Z czasem jednak takie materiały stawały się coraz lepsze w naśladowaniu prawdziwych filmów. Tym samym dostrzeżenie, czy wideo to deep fake, czy nie, stało się trudne zarówno dla ludzi, jak i dla narzędzi mających to wykrywać.

Są dwa główne sposoby na wykrywanie deep fake'ów. Pierwszy polega na analizie zachowań konkretnych ludzi widocznych na nagraniach. Załóżmy, że masz sporo materiału wideo z udziałem kogoś sławnego - na przykład byłego prezydenta Stanów Zjednoczonych Baracka Obamy. Sztuczna inteligencja (AI) potrafi wykorzystać informacje z nagrań, by nauczyć się zachowań Obamy: od gestów dłoni po to, kiedy robi pauzy w mówieniu. Sztuczna inteligencja może wtedy przeanalizować deep fake'a z Obamą i zauważyć, gdzie jego zachowanie nie pasuje do schematu. Ten sposób może działać, nawet jeśli sama jakość zmanipulowanego wideo jest praktycznie doskonała.

Spot typu deepfake przygotowany przez belgijską partię sp.a
Spot typu deepfake przygotowany przez belgijską partię sp.asp.a

Inni badacze, w tym nasz zespół, koncentrują się na różnicach między deep fake'em a prawdziwym nagraniem. Filmy deep fake są często tworzone poprzez łączenie indywidualnie wygenerowanych kadrów. Dlatego metody naszego zespołu pozwalają wyodrębnić istotne informacje z twarzy widocznych w poszczególnych klatkach filmu, a następnie śledzić je poprzez kolejne zestawy ujęć. Pozwala to na wykrycie niespójności w przepływie informacji z jednej klatki na drugą. Podobną metodę stosujemy również w naszym systemie weryfikacji dźwięku.

Te subtelne szczegóły są trudne do dostrzeżenia przez ludzi, ale pokazują, że nagrania deep fake nie są jeszcze całkiem doskonałe. Detektory fałszywych nagrań mogą przydać się każdemu, nie tylko garstce światowych liderów. Może się okazać, że oba podejścia do wykrywania deep fake'ów znajdą się w użyciu.

Najnowsze systemy weryfikacji bardzo dobrze sprawdzają się w przypadku filmów zgromadzonych specjalnie w celu oceny tych narzędzi. Niestety, nawet najlepsze słabo radzą sobie z filmami znalezionymi w internecie. Ulepszenie tych narzędzi tak, aby stały się bardziej użyteczne, będzie kluczowe.

Dziennikarze pierwszą linią obrony

Dobrze byłoby, gdyby każdy miał dostęp do narzędzi pozwalających na weryfikację deep fake'ow. Dziś ta technologia znajduje się we wczesnej fazie rozwoju. Zanim zostanie udostępniona na szeroką skalę, naukowcy muszą ją udoskonalić i chronić przed hakerami.

Jednak w tym samym czasie narzędzia do tworzenia deep fake'ów są dostępne dla każdego, kto chce oszukać opinię publiczną. Czekanie na ostateczną technologię demaskująca je nie wchodzi więc w grę. Dla naszego zespołu właściwą równowagą była praca z dziennikarzami, ponieważ to oni są pierwszą linią obrony przed rozprzestrzenianiem się dezinformacji.

Przed opublikowaniem historii dziennikarze muszą zweryfikować uzyskane informacje. Dysponują już sprawdzonymi metodami jak konsultacje z ekspertami i sprawdzanie kluczowych faktów przez więcej niż jedną osobę. Oddając narzędzie w ich ręce, przekazujemy im więcej informacji i wiemy, że nie będą polegać wyłącznie na technologii, gdyż i ta może popełniać błędy.

Jako badacze podejmujemy wyzwanie

Dobrze jest widzieć, że zespoły Facebooka i Microsoftu inwestują w technologię, by zrozumieć i wykrywać nagrania deep fake. By dotrzymać kroku postępowi tej technologii, potrzeba więcej badań. Dziennikarze i portale społecznościowe muszą także wypracować najlepsze możliwe sposoby ostrzegania ludzi przed wykrytymi fałszywymi nagraniami. Badania pokazały, że ludzie pamiętają kłamstwo, ale nie fakt, że było ono kłamstwem. Czy ten sam problem będzie dotyczył fałszywych filmów? Samo umieszczenie w tytule "deep fake" może nie wystarczyć.

Nagrania typu deep fake już są - i z nami zostaną. Ponieważ sztuczna inteligencja staje się coraz bardziej skuteczna, zarządzanie dezinformacją i ochrona społeczeństwa będą trudniejsze niż kiedykolwiek wcześniej. Jesteśmy częścią rosnącej społeczności badawczej, która podejmuje wyzwanie, jakim jest technologia deep fake.

John Sohrawardi jest doktorantem nauk informatycznych Rochester Institute of Technology. Profesor Matthew Wright specjalizujący się w bezpieczeństwie cyfrowym jest kierownikiem badań Global Cybersecurity Institute w Rochester Institute of Technology. Ich artykuł został opublikowany w portalu The Conversation pt. "In a battle of AI versus AI, researchers are preparing for the coming wave of deepfake propaganda". Tłumaczenie na podstawie licencji Creative Commons.

Autor: John Sohrawardi i Matthew Wright (tłum. Gabriela Sieczkowska) / Źródło: The Conversation; zdjęcie: Shutterstock

Źródło zdjęcia głównego: Shutterstock

Pozostałe wiadomości

Osoby wypłacające pieniądze na poczcie, nawet stosunkowo niewielkie sumy, rzekomo muszą wypełniać deklaracje do urzędu skarbowego i określić przeznaczenie pieniędzy - piszą internauci w mediach społecznościowych. To nieprawda, nie ma takiego obowiązku.

Deklaracja do skarbówki przy wypłacie na poczcie? "Muszę kategorycznie zaprzeczyć"

Deklaracja do skarbówki przy wypłacie na poczcie? "Muszę kategorycznie zaprzeczyć"

Źródło:
Konkret24

"To takie ohydne", "to absolutnie nie pomaga zdławić tej historii" - to reakcje internautów na informację, że amerykańska agencja Associated Press usunęła ze swojej strony tekst na temat J.D. Vance'a. Był to fact-check dementujący pewną plotkę o kandydacie na republikańskiego wiceprezydenta. Skąd się wzięła? Wyjaśniamy.

Agencja AP usunęła tekst na temat J.D. Vance'a. O co chodzi

Agencja AP usunęła tekst na temat J.D. Vance'a. O co chodzi

Źródło:
Konkret24

"W tym tygodniu w Niemczech zakazana została litera C" - wpis z takim komunikatem niesie się w polskiej sieci. I wprowadza w błąd. Bo wcale nie chodzi o literę. Wyjaśniamy.

W Niemczech "zakazano litery C"? O jaki symbol chodzi

W Niemczech "zakazano litery C"? O jaki symbol chodzi

Źródło:
Konkret24

Aktorzy Mel Gibson i Mark Wahlberg oraz przedsiębiorca Elon Musk razem rzekomo mają stworzyć filmową inicjatywę antylewicową w ramach walki ze zjawiskiem woke - twierdzą użytkownicy mediów społecznościowych. Musk ma w to zainwestować miliard dolarów. Nie jest to jednak prawda. 

Musk, Gibson i Wahlberg zakładają studio filmowe antywoke? Aktorzy tłumaczą

Musk, Gibson i Wahlberg zakładają studio filmowe antywoke? Aktorzy tłumaczą

Źródło:
Konkret24

Według rozpowszechnianego w sieci przekazu prezydent Wołodymyr Zełenski potwierdził, że Polska przekaże Ukrainie swoje myśliwce F-16. To jednak przekłamanie wynikające z błędnej interpretacji posta prezydenta Ukrainy. Tłumaczymy, jak powstało.

Chcą "oddać Ukrainie nasze F-16"? Wyjaśniamy, skąd ten przekaz

Chcą "oddać Ukrainie nasze F-16"? Wyjaśniamy, skąd ten przekaz

Źródło:
Konkret24

Kilka dni po zamachu na Donalda Trumpa w sieci - także polskiej - zaczął krążyć przekaz, że w Stanach Zjednoczonych powstaje "armia weteranów". Mają oni "tłumić ewentualne niepokoje społeczne i zamieszki". Jako dowód rozpowszechniane jest wideo pokazujące rzekomą "armię". Tylko że przekaz jest fake newsem.

Po zamachu na Trumpa "formują armię weteranów"? Kogo widać na tym filmie

Po zamachu na Trumpa "formują armię weteranów"? Kogo widać na tym filmie

Źródło:
Konkret24

"Religia", "kolejna ideologia" - tak poseł PiS Piotr Kaleta przedstawiał problem dziury ozonowej. Sugerował, że został on wymyślony, a na dowód pytał ironicznie: "co się z nią stało?". Otóż dziura wciąż jest.

Poseł Kaleta: "co się stało z dziurą ozonową"? Odpowiadamy

Poseł Kaleta: "co się stało z dziurą ozonową"? Odpowiadamy

Źródło:
Konkret24

"Ale dać Polakowi to rozdawnictwo", "złodziejstwo" - to reakcje internautów na przekaz w sieci, jakoby "przeciętna ukraińska rodzina" miała dostawać 10 tysięcy złotych miesięcznie w ramach różnego rodzaju świadczeń. To fake news stworzony poprzez manipulację danymi.

10 tysięcy złotych miesięcznie dostaje "przeciętna ukraińska rodzina"? To manipulacja

10 tysięcy złotych miesięcznie dostaje "przeciętna ukraińska rodzina"? To manipulacja

Źródło:
Konkret24

"Brawo uśmiechnięta Polska", "Tusk przysłany przez Niemców wykończy Polskę" - piszą internauci, komentując upadłość Browaru Kościerzyna. Tylko że historia ta działa się za poprzedniego rządu. Wyjaśniamy.

Browar Kościerzyna upadł "po pół roku rządów Tuska"? Co to za historia

Browar Kościerzyna upadł "po pół roku rządów Tuska"? Co to za historia

Źródło:
Konkret24

Prokremlowska dezinformacja nie ustaje w podważaniu faktu, że Rosja stoi za zbombardowaniem szpitala dziecięcego w Kijowie. Wykorzystuje do tego stosowaną od początku wojny metodę: fałszywy fact-checking. Kolejną jego odsłoną jest nagranie, które ma być dowodem, że to Ukraińcy zainscenizowali sceny z lekarzem na gruzach szpitala.

"Koszmarny show" i sztuczna krew. Znowu fałszywy fact-checking

"Koszmarny show" i sztuczna krew. Znowu fałszywy fact-checking

Źródło:
Konkret24

Zdaniem Prawa i Sprawiedliwości po zmianie rządu nowe kierownictwo resortu obrony "zmarnowało szanse", które stworzyły podpisane przez ministra Mariusza Błaszczaka umowy na dostawy uzbrojenia. Z odpowiedzi MON dla Konkret24 wynika jednak, że tak nie jest. Każda z tych umów jest kontynuowana.

PiS pyta MON: "co z pięcioma umowami zbrojeniowymi"? Mamy odpowiedź

PiS pyta MON: "co z pięcioma umowami zbrojeniowymi"? Mamy odpowiedź

Źródło:
Konkret24

Według rozpowszechnianego w mediach społecznościowych przekazu w dwóch amerykańskich stanach Joe Biden otrzymał nominację i nie można już go skreślić z listy kandydatów na prezydenta. Tłumaczymy, że tak nie jest i dlaczego.

Nevada i Wisconsin: tam Bidena nie można już zmienić? Wyjaśniamy

Nevada i Wisconsin: tam Bidena nie można już zmienić? Wyjaśniamy

Źródło:
Konkret24

Według polityków Konfederacji przyjęta przez Parlament Europejski rezolucja zmusza Polskę i pozostałe państwa unijne do wspierania Ukrainy w wysokości co najmniej 0,25 proc. PKB rocznie. Ale rezolucja nie ma mocy prawnej i jest jedynie "formą pewnej woli politycznej". Wyjaśniamy.

Konfederacja: europarlament zmusza Polskę "do stałego finansowania Ukrainy". Nie zmusza

Konfederacja: europarlament zmusza Polskę "do stałego finansowania Ukrainy". Nie zmusza

Źródło:
Konkret24

"Za pieniądze podatników Mastalerek zakleił sobie ucho?" - ironizują internauci, komentując fotografię, na której widać szefa gabinetu prezydenta z opatrunkiem na uchu. W domyśle jest przekaz, że Marcin Mastalerek, goszcząc na konwencji republikanów w USA, w ten sposób pokazał solidarność z Donaldem Trumpem.

Mastalerek na konwencji w USA "zakleił sobie ucho"? Skąd to zdjęcie

Mastalerek na konwencji w USA "zakleił sobie ucho"? Skąd to zdjęcie

Źródło:
Konkret24

Na krążącym w mediach społecznościowych zdjęciu grupa kilkuletnich dzieci oraz ich nauczycielki stoją roześmiani na tle napisu "Kochamy Tuska". Internauci się oburzają, piszą o indoktrynacji dzieci w szkołach, porównują Polskę do Korei Północnej. Ale zdjęcie nie jest prawdziwe.

"Przedszkole na Jagodnie"? Te osoby nie istnieją, napis też

"Przedszkole na Jagodnie"? Te osoby nie istnieją, napis też

Źródło:
Konkret24

Niedługo po pożarze jednej z najpiękniejszych katedr na świecie w mediach społecznościowych zaczęła krążyć mapa Francji mająca przedstawiać, ile jest tam rzekomo "podpalonych, sprofanowanych, zdemolowanych" kościołów. Tylko że opis tej mapy wprowadza w błąd, a ona sama nie jest aktualna.

"Podpalone, sprofanowane, zdemolowane" kościoły? Ta mapa pokazuje co innego

"Podpalone, sprofanowane, zdemolowane" kościoły? Ta mapa pokazuje co innego

Źródło:
Konkret24

13 milionów, 20 milionów, a nawet 22 miliony złotych mieli rzekomo już otrzymać w ramach premii ministrowie i wiceministrowie obecnego rządu - taki przekaz rozsyłany jest w mediach społecznościowych. Powstał po artykule jednego z dzienników, którego informacje zostały jednak przeinaczone.

22 miliony złotych nagród dla ministrów i wiceministrów? Nie, "nie otrzymywali"

22 miliony złotych nagród dla ministrów i wiceministrów? Nie, "nie otrzymywali"

Źródło:
Konkret24

Według rozsyłanego w sieci przekazu dzięki liberalnemu prawo aborcyjnemu w Czechach przyrost naturalny jest dużo wyższy niż w Polsce. Jednak pomieszano różne dane i wskaźniki. A wiązanie prawa aborcyjnego z przyrostem naturalnym lub współczynnikiem dzietności jest błędem. Wyjaśniamy.

Prawo do aborcji a przyrost naturalny w Polsce i Czechach. Co się tu nie zgadza

Prawo do aborcji a przyrost naturalny w Polsce i Czechach. Co się tu nie zgadza

Źródło:
Konkret24

Politycy Konfederacji zarzucają premierowi złamanie konstytucji i domagają się postawienia Donalda Tuska przed Trybunałem Stanu. Chodzi o podpisanie porozumienia między Polską a Ukrainą. Konstytucjonaliści, z którymi konsultował się Konkret24, w większości nie dostrzegają w tym przypadku złamania prawa - choć mają uwagi.

Umowa rządowa czy międzynarodowa? Eksperci oceniają, co podpisał Tusk z Zełenskim

Umowa rządowa czy międzynarodowa? Eksperci oceniają, co podpisał Tusk z Zełenskim

Źródło:
Konkret24

"Muzeum Narodowe rozprawiło się również z Maryją", "zamiarem tej władzy jest usunięcie nie tylko krzyży" - piszą oburzeni internauci, komentując informację, jakoby z obrazu Jana Matejki wymazano postać Matki Boskiej. W tym rozpowszechnianym między innymi przez Roberta Bąkiewicza fake newsie nie zgadza się nic - z wyjątkiem nazwy muzeum.

Bąkiewicz: z obrazu Matejki usunięto Matkę Boską. To nieprawda

Bąkiewicz: z obrazu Matejki usunięto Matkę Boską. To nieprawda

Źródło:
Konkret24

Po wizycie niemieckiego kanclerza Olafa Scholza w Warszawie wrócił temat reparacji wojennych. Jednak w trwającej debacie publicznej politycy raz mówią o "reparacjach", innym razem o "odszkodowaniach". Oba terminy oznaczają jednak inne pieniądze i dla kogo innego. Wyjaśniamy.

Polska i Niemcy: reparacje vs odszkodowania. Co mylą politycy

Polska i Niemcy: reparacje vs odszkodowania. Co mylą politycy

Źródło:
Konkret24