Grupa artystów stworzyła fałszywe nagranie wideo z udziałem byłego prezydenta Stanów Zjednoczonych Richarda Nixona. To przemowa, która sugeruje, że misja księżycowa Apollo 11 w 1969 r. zakończyła się niepowodzeniem. Jej tekst rzeczywiście został przygotowany dla Nixona, prezydent jednak nigdy jej nie wygłosił.

"Na wypadek katastrofy księżycowej" (In Event of Moon Disaster) - to tytuł instalacji artystycznej prezentowanej na Międzynarodowym Festiwalu Filmów Dokumentalnych w Amsterdamie. Jej zwiastun można obejrzeć w sieci, w tym na popularnych platformach z wideo.

To alternatywna wersja historii misji Apollo 11 z 1969 r. Prezydent Stanów Zjednoczonych zwraca się w wystąpieniu telewizyjnym do milionów Amerykanów, by poinformować o tragicznym końcu wyprawy Neila Armstronga, Edwina Aldrina i Michaela Collinsa na Księżyc.

Przemówienie, którego nie było

"Dobry wieczór moi drodzy Amerykanie. Los zdecydował, że ludzie, którzy polecieli na Księżyc w pokojowej misji badawczej, pozostaną na Księżycu, by spocząć tam w pokoju" - od tych słów rozpoczyna się sfałszowane przemówienie Richarda Nixona.

W dalszej części nagrania amerykański prezydent mówi: "Każda istota ludzka, która spojrzy na Księżyc podczas kolejnych nocy, będzie widzieć, że jest zakątek innego świata, w którym na zawsze pozostanie ludzkość".

Przemówienie nigdy nie zostało wygłoszone. Nagranie zostało sztucznie stworzone przy wykorzystaniu technologii deepfake. Jego tekst rzeczywiście pochodzi jednak z 1969 r.

Przemówienie napisał autor prezydenckich przemówień Bill Safire 18 lipca tamtego roku. Został przygotowany na wypadek niepowodzenia misji Apollo 11 - jak można przeczytać na stronie US National Archives, "na wypadek gdyby astronauci zostali bez pomocy na Księżycu i nie mogli wrócić na Ziemię".

Przemówienie "Na wypadek katastrofy księżycowej"
Przemówienie "Na wypadek katastrofy księżycowej" Foto: National Archives

"Ci odważni mężczyźni, Neil Armstrong i Edwin Aldrin, wiedzą, że nie ma nadziei na ich powrót. Ale wiedzą także, że w ich poświęceniu jest nadzieja dla ludzkości", można między innymi przeczytać w zachowanym tekście przemówienia. Znalazły się w nim także instrukcje dotyczące przemówienia - przed jego wygłoszeniem, prezydent miał zadzwonić do wdów. Po wygłoszeniu, gdy NASA zakończy komunikację z astronautami, kapłan miał podjąć procedury tożsame z pogrzebem na morzu.

Na szczęście przemówienia nie trzeba było wygłaszać. 20 lipca Neil Armstrong i Edwin Aldrin jako pierwsi ludzie zeszli na powierzchnię Księżyca. Cztery dni później szczęśliwie wrócili na Ziemię.

Nixon przemawia na nowo

Projekt filmowy "Na wypadek katastrofy księżycowej" powstał w zespole pod kierownictwem Halsey Burgund i Franceski Panetty. Producentem jest MIT Center for Advanced Virtuality (Centrum Zaawansowanych Technik Wirtualnych Massachusetts Institute of Technology). Prezentowane w ramach projektu nagranie wideo z wizerunkiem zmarłego w 1994 r. byłego prezydenta Stanów Zjednoczonych powstało dzięki wykorzystaniu technologii deepfake.

Do wytworzenia nagrań audio i wideo w tej technologii wykorzystuje się sztuczną inteligencję. Rozwiązanie opiera się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w zdjęciach, wideo czy dźwięku - mimiki, intonacji, tików, ruchów oczu. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

"Zespół wykorzystał techniki deep learning (ang. głębokiego uczenia) i nagranie głosu aktora w celu stworzenia głosu Richarda Nixona" - można przeczytać na stronie MIT Open Documentary Lab. W tworzeniu nagrania uczestniczyły także komercyjne firmy.

Autorzy nagrania deepfake nie informują o szczegółach jego powstania. Jednym z materiałów źródłowych z pewnością jest jednak przemówienie Richarda Nixona z 8 sierpnia 1974 r., kiedy poinformował on o swojej rezygnacji. Na dostępnym w sieci archiwalnym nagraniu dokumentującym przemówienie i przygotowania do niego widać sceny wykorzystane we fragmencie deepfake'owego nagrania, udostępnionym w serwisie YouTube przez Halsey Burgund.

"Zaciemnianie prawdy"

Elementem instalacji artystycznej, obok nagrania wideo, będzie odtworzony pokój wypoczynkowy wyposażony w sprzęty typowe dla lat 60. Zwiedzający będą też mogli się zapoznać z gazetami stylizowanymi na epokę. Instalację można obecnie obejrzeć w Amsterdamie. Wersja on-line ma być dostępna w sieci wiosną 2020 r.

Autorzy projektu tłumaczą jego powstanie zamiarem zwrócenia uwagi na wpływ nowoczesnych technologii na postrzeganie rzeczywistości. Cele stworzenia instalacji wyjaśnione są na stronie projektu: "Zapraszamy do tej alternatywnej historii i do rozważania, w jaki sposób nowe technologie mogą naginać, przekierowywać, czy zaciemniać przed nami prawdę".

Cytowany na stronie MIT Documentary LAB Halsey Burgund podkreśla z kolei, że jego praca w przeszłości opierała się na wykorzystaniu ludzkiego głosu i prawdziwych wypowiedzi dla celów twórczych i estetycznych. "Obecnie badam w jaki sposób brak autentyczności może wywrzeć wpływ na demokrację i społeczeństwo" - mówi Burgund.

Misja przeciw dezinformacji

Autorzy projektu nieprzypadkowo zdecydowali się na stworzenie fikcyjnego nagrania na podstawie historii wyprawy Apollo 11. To jeden z powszechnie znanych fragmentów najnowszej historii Stanów Zjednoczonych i ludzkości. Wybór i zmanipulowanie akurat tej sprawy oddala od autorów zarzut o próbę celowego rozpowszechniania dezinformacji i pozwala skoncentrować się na poznaniu istoty technologii deepfake.

Neil Armstrong podczas pracy przy księżycowym module Eagle
Neil Armstrong podczas pracy przy księżycowym module Eagle Foto: NASA

Misja Armstronga, Aldrina i Collinsa od wielu lat jest przedmiotem popularnych teorii spiskowych. Według jednej z nich reżyser Stanley Kubrick pomógł NASA sfałszować historyczne nagrania z sześciu udanych lądowań na Księżycu. Do rzekomego fałszerstwa nagrań mało dojść w studiu telewizyjnym, na co dowodem ma być ułożenie flagi Stanów Zjednoczonych czy układ cieni.

W artykule opublikowanym na Konkret24 w lipcu, Howard Berry, wykładowca Uniwersytetu Hertfordshire i ekspert od postprodukcji wideo, rozprawia się z najpopularniejszymi mitami o ekspedycji na powierzchnię srebrnego globu.

Autor:  kjab
Źródło:  Konkret24, opendoclab.mit.edu; zdjęcie tytułowe: Wikipedia

Pozostałe

Instagram oznacza retuszowane zdjęcia i sztukę jako fałsz? Nie automatycznie

Po oznaczeniu na Instagramie zdjęcia kolorowych gór jako fałszu, w sieci pojawiły się artykuły sugerujące, że przez nowe rozwiązania stosowane na platformie wszystkie retuszowane zdjęcia oraz prace artystyczne będą automatycznie w ten sposób ukrywane przed użytkownikami. Przedstawiciele serwisu wyjaśniają, że ich niezależni weryfikatorzy sprawdzają wszystkie zgłoszone materiały i to od nich zależy, co zostanie zakwalifikowane jako nieprawda. Niedawno wdrożony system prowadzi jednak do różnych nieporozumień.

Awaria pokazała, kto prowadzi profile polityków na Facebooku

Krótki wyciek informacji, które nie są normalnie widoczne dla użytkowników Facebooka, pozwolił zobaczyć, kto obsługuje niektóre strony na tym portalu społecznościowym. Jawne stały się dane osób prowadzących oficjalne, ale i fanowskie profile m.in. Mateusza Morawieckiego.

Deep fake? Proste manipulacje wideo "prawdopodobnie bardziej szkodliwe w 2020 r."

W mediach społecznościowych zyskuje popularność krótkie nagranie wypowiedzi Joe Bidena, polityka ubiegającego się o poparcie Partii Demokratycznej w wyborach prezydenckich w Stanach Zjednoczonych. Wbrew twierdzeniom internautów, Biden nie zasugerował, że amerykańska kultura nie opiera się na wzorcach afrykańskich czy azjatyckich. Jego słowa zostały wyrwane z kontekstu. Zdaniem ekspertów, w 2020 r. zmanipulowane nagrania wideo i fragmenty wypowiedzi bez kontekstu mogą okazać się potężną bronią w rękach osób rozpowszechniających fałszywe informacje.

Nigdy nie istnieli, mogli być Twoimi znajomymi na Facebooku

Facebook poinformował o usunięciu setek kont, których administratorzy złamali reguły serwisu. Chodzi między innymi o tworzenie fikcyjnych kont, rozsyłanie spamu czy treści mogących wprowadzać w błąd, głównie na temat wydarzeń w USA. Na niektórych kontach wykorzystano zdjęcia profilowe wygenerowane przez sztuczną inteligencję.

Nie, nie trzeba pisać oświadczeń w związku z nową polityką Twittera

Twitter zapowiedział zmianę swojej polityki prywatności i m.in. usuwanie nieaktywnych kont. W odpowiedzi użytkownicy, głównie tzw. fanowskich profili, zaczęli zamieszczać specjalne oświadczenia, mające ich rzekomo uchronić przed stratą dostępu do konta. Nie są potrzebne. Konta fanowskie od dawna muszą być odpowiednio przez użytkowników oznaczone.

Coraz więcej państw prosi i dostaje dane użytkowników mediów społecznościowych

W połowie listopada Facebook opublikował czwarty raport pokazujący, jak firma radzi sobie z moderacją treści i przestrzeganiem polityk społeczności. Platforma chwali się, że w ostatnim kwartale usunęła 3,2 miliarda fałszywych kont na Facebooku. Rośnie liczba usuwanych postów na Instagramie, związanych z organizacjami terrorystycznymi, ale także liczba wniosków władz państwowych o dane użytkowników. Jak się okazuje, w większości przypadków Facebook zgadza na ich przekazanie. Tak też jest w przypadku Polski.

Nie, Facebook nie zakazał używania emotikonów brzoskwiń i bakłażanów

Internauci rozpowszechniają fałszywą informację o rzekomym zakazie używania ikonek brzoskwini i bakłażanów na Facebooku i Instagramie. W rzeczywistości platformy zabraniają publikowania materiałów, które noszą znamiona nagabywania seksualnego. Nie można publikować treści, które są napastliwe seksualnie i które jednocześnie zawierają emotikony uważane za nacechowane seksualnie. Żadne konkretne ikony nie są jednak wskazane.