W czasie tenisowego turnieju na Wimbledonie w mediach społecznościowych pojawiło się budzące wątpliwości nagranie z Igą Świątek. NASK ostrzega - spreparowany film z wizerunkiem polskiej tenisistki służy oszustom do promowania na Facebooku stron z fałszywą inwestycją w projekt Baltic Pipe.
Iga Świątek, nr 1 w rankingu WTA, startuje w kolejnym wielkoszlemowym turnieju, tym razem na trawiastych kortach Wimbledonu. Choć na tej nawierzchni i w tym turnieju Polka nie odnosiła dotychczas wielkich sukcesów - najdalej, bo do ćwierćfinałów zaszła w 2023 roku - to w tegorocznej edycji bez większych problemów zwyciężyła w pierwszej rundzie Amerykankę Sofię Kenin. W tym samym czasie wizerunek polskiej tenisistki został wykorzystany przez internetowych oszustów, o czym ostrzega Naukowa i Akademicka Sieć Komputerowa (NASK).
W mediach społecznościowych oszuści publikują nagranie, w którym Świątek rzekomo ma reklamować inwestycję w projekt Baltic Pipe. Film z wizerunkiem polskiej tenisistki spreparowano w technologii deepfake, jest emitowany jako reklama na Facebooku.
Na krótkim nagraniu widzimy Igę Świątek siedzącą w skórzanym fotelu. Wprost do kamery mówi: "Drodzy Polacy, nie pozwolę, aby wyższe władze okradały was, napychając sobie kieszenie pieniędzmi Polaków. Sejm robi wszystko, aby ukryć ten film, ale ja ujawniam wam tajemnicę, jak każdy Polak może zarobić ponad 25 tysięcy złotych miesięcznie bez wychodzenia z domu dzięki projektowi gazociągu Baltic Pipe. Nie pozwól, aby Sejm okradł ciebie i twoje dzieci. Spiesz się i aplikuj online. Liczba miejsc jest ograniczona".
Głos na nagraniu do złudzenia przypomina głos Igi Świątek, jednak wątpliwości budzi fakt, że materiał jest niskiej jakości. Co więcej, ruch jej warg wydaje się nienaturalny i nie zawsze pasuje do słów, które słyszymy na nagraniu.
To zmanipulowane nagranie. Oryginał powstał cztery lata temu
Według narzędzia Truemedia.org istnieją istotne dowody manipulacji nagraniem rozpowszechnianym przez oszustów. Oceniło, że ze 100-procentowym prawdopodobieństwem dźwięk nagrania został wygenerowany przez sztuczną inteligencję (AI). Analiza klatek wideo pod kątem nietypowych wzorców i rozbieżności w rysach twarzy wykazała 90-procentowe prawdopodobieństwo manipulacji.
Podobne wyniki dało narzędzie DeepFake-O-Meter, stworzone przez Media Forensics Lab z Uniwersytetu w Buffalo. Na 92,8 proc. oceniło prawdopodobieństwo tego, że nagrane to deepfake, w którym wykorzystano narzędzia synchronizacji ruchu warg.
Jak sprawdziliśmy, do przygotowania zmanipulowanego nagrania wykorzystano fragment wywiadu z Igą Świątek sprzed prawie czterech lat. Ten w dwóch częściach opublikowano na Kanale Sportowym na YouTube w sierpniu 2020 roku. Zgadza się wystrój studia, skórzana kanapa, czarne tło i ubiór Świątek. W oryginalnym nagraniu tenisistka nie reklamowała w żaden sposób inwestycji w Baltic Pipe.
NASK: oszuści wykorzystują znane osoby i głośne wydarzenia
NASK ostrzega przed oszustwami z wykorzystaniem nagrań deepfake, które pojawiły się w serwisach Facebook, X i YouTube na przełomie czerwca i lipca 2024 roku. Według instytucji oszuści wykorzystują wizerunek znanych osób, umiejętnie wykorzystują też aktualne, głośne wydarzenia, np. sportowe. Tak było w przypadku Igi Świątek i turnieju w Wimbledonie, który rozpoczął się pod koniec czerwca 2024 roku.
Jak ostrzega NASK, do oszustw wykorzystano m.in. wizerunek restauratorki Magdy Gessler, ministra finansów Andrzeja Domańskiego, premiera Donalda Tuska, dziennikarek Justyny Dobrosz-Oracz z TVP Info, Iwony Kutyny z Radia ZET i Moniki Olejnik z TVN24 oraz Pawła Lisickiego, redaktora naczelnego tygodnika "Do Rzeczy".
Schemat działania jest podobny jak w przypadku deepfake'a z Igą Świątek - oszuści wykorzystują istniejące nagrania znanych osób i manipulują ich dźwiękiem oraz obrazem, używając narzędzi opartych na AI. W efekcie powstają nagrania, w których znane osoby "reklamują" fałszywe inwestycje, aplikacje do zarabiania pieniędzy lub produkty lecznicze. Przed podobnymi oszustwami z wykorzystaniem deepfake'ów NASK ostrzegał już w maju tego roku.
Jak rozpoznać nagrania deepfake?
Wraz z rozwojem sztucznej inteligencji jakość materiałów deepfake stale się poprawia. Nie są one jednak idealne - ciągle można zauważyć błędy m.in. w renderowaniu (pokazywaniu) obszaru ust, szczególnie zębów, albo niedoskonałą synchronizację wypowiedzi z ruchem ust, zauważa NASK.
Jeśli jakieś nagranie budzi nasze wątpliwości, warto przyjrzeć się szczegółom w wyglądzie osób lub osoby, które na nim widzimy, radzi ekspertka BBC ds. dezinformacji Marianna Spring. Warto zadać sobie kilka pytań. Czy jej oczy i usta wyglądają tak samo jak na innych nagraniach? Czy ma odpowiednią liczbę palców? To właśnie z takimi szczegółami sztuczna inteligencja często sobie nie radzi i na przykład generuje za dużo lub za mało palców. Kolejną kwestią jest ruch i głos. Czy osoba na nagraniu porusza się nienaturalnie, jak postać z kreskówki? Czy jej głos jest zniekształcony, brzmi trochę jak głos robota? Jeśli po obejrzeniu danego materiał na którekolwiek z postawionych pytań odpowiedziałeś/-aś twierdząco, to najprawdopodobniej masz do czynienia z deepfakiem.
Warto sprawdzać też fakty. Czy informacje, o których mówi osoba z nagrania, potwierdzają inne wiarygodne źródła? Brak takiego potwierdzenia może oznaczać, że ktoś próbuje wprowadzić nas w błąd.
Z pomocą przychodzą również darmowe narzędzia, które pozwalają na ocenę tego, z jakim prawdopodobieństwem wideo powstało przy użyciu narzędzi wykorzystujących AI. Należą do nich wspomniane Truemedia i DeepFake-O-Meter.
Źródło: Konkret24
Źródło zdjęcia głównego: ADAM VAUGHAN/EPA/PAP