Grupa artystów stworzyła fałszywe nagranie wideo z udziałem byłego prezydenta Stanów Zjednoczonych Richarda Nixona. To przemowa, która sugeruje, że misja księżycowa Apollo 11 w 1969 r. zakończyła się niepowodzeniem. Jej tekst rzeczywiście został przygotowany dla Nixona, prezydent jednak nigdy jej nie wygłosił.

"Na wypadek katastrofy księżycowej" (In Event of Moon Disaster) - to tytuł instalacji artystycznej prezentowanej na Międzynarodowym Festiwalu Filmów Dokumentalnych w Amsterdamie. Jej zwiastun można obejrzeć w sieci, w tym na popularnych platformach z wideo.

To alternatywna wersja historii misji Apollo 11 z 1969 r. Prezydent Stanów Zjednoczonych zwraca się w wystąpieniu telewizyjnym do milionów Amerykanów, by poinformować o tragicznym końcu wyprawy Neila Armstronga, Edwina Aldrina i Michaela Collinsa na Księżyc.

Przemówienie, którego nie było

"Dobry wieczór moi drodzy Amerykanie. Los zdecydował, że ludzie, którzy polecieli na Księżyc w pokojowej misji badawczej, pozostaną na Księżycu, by spocząć tam w pokoju" - od tych słów rozpoczyna się sfałszowane przemówienie Richarda Nixona.

W dalszej części nagrania amerykański prezydent mówi: "Każda istota ludzka, która spojrzy na Księżyc podczas kolejnych nocy, będzie widzieć, że jest zakątek innego świata, w którym na zawsze pozostanie ludzkość".

Przemówienie nigdy nie zostało wygłoszone. Nagranie zostało sztucznie stworzone przy wykorzystaniu technologii deepfake. Jego tekst rzeczywiście pochodzi jednak z 1969 r.

Przemówienie napisał autor prezydenckich przemówień Bill Safire 18 lipca tamtego roku. Został przygotowany na wypadek niepowodzenia misji Apollo 11 - jak można przeczytać na stronie US National Archives, "na wypadek gdyby astronauci zostali bez pomocy na Księżycu i nie mogli wrócić na Ziemię".

Przemówienie "Na wypadek katastrofy księżycowej"
Przemówienie "Na wypadek katastrofy księżycowej" Foto: National Archives

"Ci odważni mężczyźni, Neil Armstrong i Edwin Aldrin, wiedzą, że nie ma nadziei na ich powrót. Ale wiedzą także, że w ich poświęceniu jest nadzieja dla ludzkości", można między innymi przeczytać w zachowanym tekście przemówienia. Znalazły się w nim także instrukcje dotyczące przemówienia - przed jego wygłoszeniem, prezydent miał zadzwonić do wdów. Po wygłoszeniu, gdy NASA zakończy komunikację z astronautami, kapłan miał podjąć procedury tożsame z pogrzebem na morzu.

Na szczęście przemówienia nie trzeba było wygłaszać. 20 lipca Neil Armstrong i Edwin Aldrin jako pierwsi ludzie zeszli na powierzchnię Księżyca. Cztery dni później szczęśliwie wrócili na Ziemię.

Nixon przemawia na nowo

Projekt filmowy "Na wypadek katastrofy księżycowej" powstał w zespole pod kierownictwem Halsey Burgund i Franceski Panetty. Producentem jest MIT Center for Advanced Virtuality (Centrum Zaawansowanych Technik Wirtualnych Massachusetts Institute of Technology). Prezentowane w ramach projektu nagranie wideo z wizerunkiem zmarłego w 1994 r. byłego prezydenta Stanów Zjednoczonych powstało dzięki wykorzystaniu technologii deepfake.

Do wytworzenia nagrań audio i wideo w tej technologii wykorzystuje się sztuczną inteligencję. Rozwiązanie opiera się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w zdjęciach, wideo czy dźwięku - mimiki, intonacji, tików, ruchów oczu. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

"Zespół wykorzystał techniki deep learning (ang. głębokiego uczenia) i nagranie głosu aktora w celu stworzenia głosu Richarda Nixona" - można przeczytać na stronie MIT Open Documentary Lab. W tworzeniu nagrania uczestniczyły także komercyjne firmy.

Autorzy nagrania deepfake nie informują o szczegółach jego powstania. Jednym z materiałów źródłowych z pewnością jest jednak przemówienie Richarda Nixona z 8 sierpnia 1974 r., kiedy poinformował on o swojej rezygnacji. Na dostępnym w sieci archiwalnym nagraniu dokumentującym przemówienie i przygotowania do niego widać sceny wykorzystane we fragmencie deepfake'owego nagrania, udostępnionym w serwisie YouTube przez Halsey Burgund.

"Zaciemnianie prawdy"

Elementem instalacji artystycznej, obok nagrania wideo, będzie odtworzony pokój wypoczynkowy wyposażony w sprzęty typowe dla lat 60. Zwiedzający będą też mogli się zapoznać z gazetami stylizowanymi na epokę. Instalację można obecnie obejrzeć w Amsterdamie. Wersja on-line ma być dostępna w sieci wiosną 2020 r.

Autorzy projektu tłumaczą jego powstanie zamiarem zwrócenia uwagi na wpływ nowoczesnych technologii na postrzeganie rzeczywistości. Cele stworzenia instalacji wyjaśnione są na stronie projektu: "Zapraszamy do tej alternatywnej historii i do rozważania, w jaki sposób nowe technologie mogą naginać, przekierowywać, czy zaciemniać przed nami prawdę".

Cytowany na stronie MIT Documentary LAB Halsey Burgund podkreśla z kolei, że jego praca w przeszłości opierała się na wykorzystaniu ludzkiego głosu i prawdziwych wypowiedzi dla celów twórczych i estetycznych. "Obecnie badam w jaki sposób brak autentyczności może wywrzeć wpływ na demokrację i społeczeństwo" - mówi Burgund.

Misja przeciw dezinformacji

Autorzy projektu nieprzypadkowo zdecydowali się na stworzenie fikcyjnego nagrania na podstawie historii wyprawy Apollo 11. To jeden z powszechnie znanych fragmentów najnowszej historii Stanów Zjednoczonych i ludzkości. Wybór i zmanipulowanie akurat tej sprawy oddala od autorów zarzut o próbę celowego rozpowszechniania dezinformacji i pozwala skoncentrować się na poznaniu istoty technologii deepfake.

Neil Armstrong podczas pracy przy księżycowym module Eagle
Neil Armstrong podczas pracy przy księżycowym module Eagle Foto: NASA

Misja Armstronga, Aldrina i Collinsa od wielu lat jest przedmiotem popularnych teorii spiskowych. Według jednej z nich reżyser Stanley Kubrick pomógł NASA sfałszować historyczne nagrania z sześciu udanych lądowań na Księżycu. Do rzekomego fałszerstwa nagrań mało dojść w studiu telewizyjnym, na co dowodem ma być ułożenie flagi Stanów Zjednoczonych czy układ cieni.

W artykule opublikowanym na Konkret24 w lipcu, Howard Berry, wykładowca Uniwersytetu Hertfordshire i ekspert od postprodukcji wideo, rozprawia się z najpopularniejszymi mitami o ekspedycji na powierzchnię srebrnego globu.

Autor:  kjab
Źródło:  Konkret24, opendoclab.mit.edu; zdjęcie tytułowe: Wikipedia

Pozostałe

Nie, nie trzeba pisać oświadczeń w związku z nową polityką Twittera

Twitter zapowiedział zmianę swojej polityki prywatności i m.in. usuwanie nieaktywnych kont. W odpowiedzi użytkownicy, głównie tzw. fanowskich profili, zaczęli zamieszczać specjalne oświadczenia, mające ich rzekomo uchronić przed stratą dostępu do konta. Nie są potrzebne. Konta fanowskie od dawna muszą być odpowiednio przez użytkowników oznaczone.

Coraz więcej państw prosi i dostaje dane użytkowników mediów społecznościowych

W połowie listopada Facebook opublikował czwarty raport pokazujący, jak firma radzi sobie z moderacją treści i przestrzeganiem polityk społeczności. Platforma chwali się, że w ostatnim kwartale usunęła 3,2 miliarda fałszywych kont na Facebooku. Rośnie liczba usuwanych postów na Instagramie, związanych z organizacjami terrorystycznymi, ale także liczba wniosków władz państwowych o dane użytkowników. Jak się okazuje, w większości przypadków Facebook zgadza na ich przekazanie. Tak też jest w przypadku Polski.

Nie, Facebook nie zakazał używania emotikonów brzoskwiń i bakłażanów

Internauci rozpowszechniają fałszywą informację o rzekomym zakazie używania ikonek brzoskwini i bakłażanów na Facebooku i Instagramie. W rzeczywistości platformy zabraniają publikowania materiałów, które noszą znamiona nagabywania seksualnego. Nie można publikować treści, które są napastliwe seksualnie i które jednocześnie zawierają emotikony uważane za nacechowane seksualnie. Żadne konkretne ikony nie są jednak wskazane.

Popularne w sieci wideo nie jest z Hongkongu. To projekt artystyczny

W mediach społecznościowych bardzo dużą popularność zyskuje krótkie wideo z wynalazkiem, który ma pomóc zmylić system rozpoznawania twarzy. Przekazujący sobie to nagranie internauci piszą, że pochodzi ono z Hongkongu. Jednak przenośny projektor twarzy to część projektu artystycznego holenderskich studentów sprzed dwóch lat. Podkreślają, że produkt tak naprawdę nie działa i apelują o niewykorzystywanie go w celach politycznych.

Dezinformacja - prognozy przed wyborami w USA w 2020 roku

Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.