Seks, którego nie było, a który zobaczył cały świat

fałszywe zdjęcie z Gal GadotMagazyn TVN24

Cały internet mógł zobaczyć, jak znana z roli Wonder Woman aktorka Gal Gadot uprawia seks z przyrodnim bratem. Porno było fałszywką, ale zrobioną tak dobrze, że można zacząć się bać.

Pokazujemy, co jest prawdą, a co fałszem
Weryfikujemy fake newsy, sprawdzamy dane, analizujemy informacje z sieci

Zbitka słów "fake" (fałszywa) oraz "news" (informacja) uznana przez autorów słownika Collins Dictionary za Słowo Roku 2017 nie traci na popularności. Donald Trump tylko w czerwcu użył jej na Twitterze 21 razy. Wielu głowi się wciąż, jak z tym zjawiskiem walczyć, tymczasem internetowe fałszywki wchodzą już w nową, dużo groźniejszą fazę.

Nazywa się ona

Deepfake

czyli z angielskiego – "głębokie fałszywki".

Po raz pierwszy zrobiło się o tym głośno w listopadzie ubiegłego roku, gdy użytkownik pod pseudonimem "DeepFakes", opublikował w serwisie Reddit wideo, w którym wykorzystując metodę tzw. deep learning (głębokiego uczenia) - czyli odmianę sztucznej inteligencji - pokazał, jak można doczepiać głowy celebrytów do ciał aktorów w filmach pornograficznych.

Kilka takich zmanipulowanych nagrań, m.in. z Gal Gadot, aktorką znaną z filmu "Wonder Woman", szybko rozeszło się po internecie. Zazwyczaj bez informacji, że to fałszywki. "DeepFakes" opracował też proste narzędzie, dzięki któremu takie materiały mogli tworzyć inni użytkownicy. W serwisie zaroiło się od fałszywego porno, ale i mniej groźnych podmianek twarzy aktorów w filmowych hitach (np. Nicolas Cage zagrał Indianę Jonesa).

Rozwiązanie opierało się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w zdjęciach, wideo czy dźwięku - mimiki, intonacji, tików - tak, by móc odtworzyć - dajmy na to - twarz celebryty w różnych ustawieniach. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

fałsz

Gal Gadot i Barack Obama

Nad podobnymi metodami analizy obrazu od kilku lat pracują eksperci od filmowych efektów specjalnych i naukowcy - m.in. na Uniwersytecie Stanforda czy University of Washington. Jednym z najczęściej "manipulowanych" jest Barack Obama, Na słynnym już wideo, pokazany w kilku zupełnie różnych ujęciach, mówi dokładnie to samo i tak samo.

Materiały nie są idealne. Wprawne oko wyłapie, że głowa Gal Gadot nie zawsze porusza się w tym samym kierunku, co doszyte do niej ciało aktorki porno. Powoduje to efekt nazywany "doliną niesamowitości" - wydaje się, że obserwujemy prawdziwego człowieka, ale obraz może powodować nieprzyjemne odczucie i brak komfortu oglądania. Czasem na twarz Gal Gadot nakładał się też fragment twarzy aktorki porno, a w przypadku Obamy można było momentami zauważyć rozmazane usta, a oczy wyrażały coś innego niż to, o czym polityk opowiadał. Ale to szczegóły. Są widoczne tylko wtedy, jeśli ktoś chce się nagraniu dokładniej przyjrzeć. Na pierwszy rzut oka nie do wychwycenia.

Które nagranie wypowiedzi Obamy jest prawdziwe?
Które nagranie wypowiedzi Obamy jest prawdziwe?University of Washington

Najgorsze jest to, że naukowcy nad swoimi pomysłami pracują od lat, tymczasem fałszywe porno na Reddit stworzyła prawdopodobnie jedna osoba, nie wykorzystując do tego wyszukanych algorytmów. I dała narzędzie internautom, którzy na algorytmach w ogóle się nie znają.

Większość materiałów pornograficznych z twarzami znanych osób została usunięta z mediów społecznościowych i z Reddit. Zniknęły też odnośniki do narzędzia, które miało pomagać takie materiały tworzyć. Jednak to nie oznacza, że przestały one krążyć po sieci. Po prostu przeszły do podziemia.

Podziemie nazywa się

Dark Web

czyli z angielskiego - ciemna sieć (po polsku nazywana także "szarym internetem").

O tym, co krąży w "dark webie", wiedzą tylko ci, którzy mają wystarczającą wiedzę, by do tej internetowej rzeczywistości się przedostać. Dla przeciętnego użytkownika, a często i dla służb, jest to przestrzeń zupełnie niedostępna i nieznana (bo zanonimizowana).

Gdy redakcja Motherboard, portalu poświęconego technologii i nauce, jako pierwsza opisywała porno "deepfake" z Reddita, swój tekst zatytułowała "Mamy naprawdę przerąbane". Dyskusje na Reddicie to potwierdzały.

Większość użytkowników nie widziała problemu w zmanipulowanych obrazach z udziałem celebrytów, za problematyczne uznawała za to wykorzystywanie w tym celu twarzy youtuberów i zwykłych ludzi. Problematyczne, ale nie wykluczone.

Część rozmów dotyczyła tego, czy można robić fałszywe porno z osobami, które się użytkownikom po prostu podobają – na przykład z koleżankami czy osobami znanymi tylko z widzenia. Wielu przyznawało, że choć mają pewne wątpliwości, to jednak potrzeby erotyczne powinny mieć przewagę nad rozterkami etycznymi.

Przezwyciężenie moralnych oporów może zaś spowodować, że komuś z dobrą wiedzą technologiczną wystarczy dostęp do kilkunastu zdjęć, by opracować "deepfake" z naszą twarzą.

Zdjęć w sieci zostawiamy mnóstwo - tylko w latach 2015-2016 użytkownicy zamieścili w Google Photos 24 miliardy selfie. Łatwo zatem wyobrazić sobie programistę amatora, który wykorzysta je do fałszywego porno. Eksperci obawiają się przede wszystkim tzw. revenge porn- materiałów tworzonych i upublicznianych w formie zemsty na innej osobie.

Jack Clark, który zajmuje się sztuczną inteligencją w założonej przez Elona Muska firmie OpenAI, uważa, że do 2020 "deepfake" stanie się metodą na tyle już rozpowszechnioną i tanią, że wielu dowcipnisiów będzie z niej korzystać na skalę zbliżoną do dzisiejszych memów. I że będzie to zabawa bardzo niebezpieczna.

Cyfrowe marionetki

"Deepfake" i technologie odtwarzania wyglądu czy wypowiedzi mogą wyrządzić nam nie tylko krzywdę psychiczną, ale też fizyczną czy wizerunkową. Na przykład podważyć naszą wiarygodność lub posłużyć do spreparowania dowodów na zdradę małżeńską czy przyjęcie łapówki.

Pewnego dnia usłyszeć będzie można znaną postać, wypowiadającą niezwykle wulgarne lub rasistowskie opinie albo takie, w których biznesmen dyskredytować będzie swojego wspólnika.

Fałszywe wideo to dobre narzędzie dla szantażystów, wyłudzających pieniądze czy tajne informacje. Może doprowadzić do eliminowania osób z życia publicznego, a także do upadku firm.

"Dobrze wykonany i upubliczniony w odpowiednim momencie 'deepfake' może wyrządzić poważną szkodę własności fizycznej albo ludzkiemu życiu - w sytuacjach niepokojów społecznych czy paniki - oraz uczciwemu przebiegowi wyborów. Jego rozprzestrzenianie się grozi zniszczeniem zaufania, niezbędnego do funkcjonowania demokracji" – napisał na blogu Lawfare profesor Robert M. Chesney, amerykański prawnik i wykładowca z University of Texas School of Law.

Uruchommy wyobraźnię. Materiały "deepfake" mogą pokazywać polityków tam, gdzie ich nie było, albo robiących rzeczy, których nie zrobili. To niezwykle groźne narzędzie może być użyte w kampanii wyborczej albo gdy ktoś będzie dążył do zmiany władzy. Mogą też wywoływać konflikty - np. informacja o udanym puczu w Turcji, którą zobaczą miliony widzów w kraju, czy o zbiorowym morderstwie na tle religijnym w Nigerii. Dziś plotka o porwaniach dzieci w małej miejscowości w Indiach powoduje nawoływanie do krwawej zemsty. Co zatem będzie się działo, gdy plotce towarzyszyć będzie wyglądające na wiarygodne wideo, w którym ktoś przedstawi na takie porwanie dowody?

Profesor Chesney zwraca uwagę na jeszcze jeden aspekt "deepfake". – Opinia publiczna może być bardziej skłonna nie wierzyć w prawdziwe, ale niewygodne fakty – uważa. – Gdy "deepfake" staną się powszechne, społeczeństwo może mieć kłopot z uwierzeniem w to, co mówią im oczy lub uszy, nawet gdy mówią prawdę.

Jeśli zacznie pojawiać się coraz więcej zmanipulowanych materiałów, dużo łatwiej będzie można dyskredytować materiały prawdziwe. "Na przykład taśma Trumpa z sikaniem. Jeśli prawdziwe nagranie ujrzałoby światło dzienne, ludzie będą twierdzić, że to 'deepfake'" - mówi w portalu The Verge Benjamin Van Den Broeck, specjalista od efektów specjalnych. Chodzi o doniesienia, jakoby podczas pobytu Donalda Trumpa w Moskwie w 2013 r. Rosjanie nagrali jego noc z prostytutkami, które miał poprosić o sikanie na łóżko, na którym spali kiedyś Michelle i Barack Obama.

Zresztą fałszywe nagranie z Donaldem Trumpem też już powstało. Widzimy w nim polityka, który w typowym dla siebie stylu przemawia: "Drodzy Belgowie! To ważna sprawa. Jak wiecie, miałem jaja, by wycofać się z paryskiego porozumienia klimatycznego. I wy też to powinniście zrobić. Bo to, co teraz robicie, jest gorsze. Zgodziliście się na porozumienie, ale nic nie robicie. Tylko blablabla, bingbangbom. Zanieczyszczacie bardziej niż przed porozumieniem. Wstyd! Totalny wstyd! Ja przynajmniej jestem uczciwy. Ludzie mnie kochają, bo jestem uczciwy. Jestem najuczciwszą osobą na świecie". Po czym zachęca Belgię do wycofania się z porozumienia klimatycznego.

Wprawdzie potem pada ciche: "wiemy, że zmiany klimatyczne to fałszywka, tak jak i to wideo", wprawdzie dziwnie wyglądające usta i zęby Trumpa powinny wzbudzić wątpliwości widzów, a słowa – nawet jak na niego – są zbyt potoczne, jednak wiele osób nabrało się w internecie na to nagranie. Przygotowała je jedna z belgijskich partii.

spot typu deepfake przygotowany przez partię sp.a
spot typu deepfake przygotowany przez partię sp.asp.a

Obawy, że "deepfake" może wywołać tzw. efekt różowego słonia, są słuszne. Nawet gdy ludzie rozpoznają, że mają do czynienia ze zmanipulowanym materiałem, to i tak wywrze on na nich wpływ. Dlatego Walter Schierer, ekspert ds. informatyki śledczej na Uniwersytecie Notre Dame, uważa, że jesteśmy w swoistym wyścigu zbrojeń, bo technologia niezwykle szybko się rozwija i przynosi coraz więcej realnych zagrożeń. Na tyle realnych, że amerykańska agenda rządowa DARPA (Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności) powołała do życia projekt Media Forensics, który ma stworzyć zautomatyzowane metody wyłapywania tego typu manipulacji w sieci.

Zakład, że mamy problem?

I choć nikt jeszcze nie stworzył idealnego "deepfake'a", naukowcy nie mają wątpliwości, że to tylko kwestia czasu. Tim Hwang, który na Uniwersytecie Harvarda zajmuje się etycznymi aspektami sztucznej inteligencji, przyjmuje już zakłady, kiedy pierwsze nagranie "deepfake" zostanie wykorzystane w kampanii wyborczej i osiągnie oglądalność na poziomie dwóch milionów odsłon.

Sam Hwang wątpi, by stało się to podczas zbliżającej się w Stanach Zjednoczonych kampanii wyborczej przed tzw. midterm elections (wybory do Kongresu, które odbywają się w połowie kadencji prezydenta - red.). Jednak Rebecca Crootof z Yale Law School założyła się o drinka, że "deepfake" z dwoma milionami odsłon pojawi się przed grudniem 2018, a do 2020 takie nagrania będą zjawiskiem powszechnym.

Nie wyklucza też tego profesor Michael Horowitz z University of Pennsylvania. - Czy bylibyśmy zdziwieni, gdyby na tydzień przed midterm elections pojawiło się wideo "deepfake", które byłoby rosyjską agitką, mającą na celu rozjuszyć Amerykanów, nieważne po której są stronie? W sumie to byłbym zdziwiony, gdyby Rosjanie tego nie spróbowali - konkluduje.

Przyszłość już tu jest

Intensywne prace nad algorytmami, które pozwolą idealnie odtworzyć wygląd i wypowiedzi, trwają. Profesor Matthias Niessner z Uniwersytetu Technicznego w Monachium pracuje nad dynamiczną rekonstrukcją 3D ludzkiej twarzy, co pozwoli na lepsze odtwarzanie ruchów głowy wraz z ruchem torsu czy włosów, udoskonalenie mrugania i dostosowanie wyrazu twarzy i spojrzenia do padających słów.

Google ma narzędzie Duplex, które może wykonać za nas telefon i umówić na przykład na wizytę u fryzjera.

efekty narzędzia Face2Face, stworzonego przez naukowców
efekty narzędzia Face2Face, stworzonego przez naukowcówUniversity of Stanford

Adobe stworzyło oprogramowanie VoCo, dzięki któremu zdanie "jutro lecę na wakacje" może nagle zamienić się w brzmiące wiarygodnie "rano zjem kanapkę". Wystarczy 20 minut nagrania czyjegoś głosu, by oprogramowanie stworzyło jakąkolwiek nową wypowiedź na dowolny temat, jakiejkolwiek długości. Jeśli jednak "jutro lecę na wakacje" łatwo przerobić na "rano zjem kanapkę", to czy równie łatwo nie będzie zmienić te słowa na - przypuśćmy - "wystrzeliliśmy rakietę na Polskę"?

Autor: Beata Biel, redakcja: Aleksandra Majda (Magazyn TVN24) / Źródło: Konkret24; Motherboard, Lawfare, The Verge

Źródło zdjęcia głównego: Magazyn TVN24

Pozostałe wiadomości

Zbigniew Ziobro ani razu nie stawił się jeszcze na przesłuchanie przed komisją śledczą do spraw Pegasusa. A według europosła Patryka Jakiego dotychczas to właśnie jego kolega z partii "był najczęściej przesłuchiwanym politykiem w trzeciej RP". Czy rzeczywiście?

"Ziobro najczęściej przesłuchiwanym politykiem"? Lider jest inny

"Ziobro najczęściej przesłuchiwanym politykiem"? Lider jest inny

Źródło:
Konkret24

Przekaz o zwolnieniu z podatku dochodowego obywateli Ukrainy i Białorusi po raz kolejny wraca do sieci. Internauci twierdzą, że "Senat przyjął uchwałę o zwolnieniu z podatku dochodowego obywateli Ukrainy i Białorusi" i uchodźcy mogą liczyć na przywileje niedostępne dla "milionów Polaków". Przypominamy, dlaczego to twierdzenie jest nieprawdziwe.

Senat chce zwolnić Ukraińców i Białorusinów z podatku? Nie, wyjaśniamy

Senat chce zwolnić Ukraińców i Białorusinów z podatku? Nie, wyjaśniamy

Źródło:
Konkret24

"Unia chce zakazać napraw samochodów starszych niż 15 lat" - taki przekaz pojawił się w sieci i wywołał oburzenie części internautów. Informacje mają pochodzić z unijnego rozporządzenia dotyczącego samochodów, które zostały wycofane z użytku. To jest fałszywa informacja. Komisja Europejska dementuje.

"To koniec naprawiania samochodów. Unia wprowadza zakaz"? Wrócił fake news

"To koniec naprawiania samochodów. Unia wprowadza zakaz"? Wrócił fake news

Źródło:
Konkret24

"Niech idą sobie", "brawo Turcja" - komentują polscy internauci przekaz o tym, jakoby Turcja wychodziła z NATO. Brak jakichkolwiek potwierdzeń takich doniesień, a zasięg tej narracji wzmacniają w sieci konta szerzące rosyjską dezinformację. Sprawdziliśmy, co może być jej źródłem.

Turcja wychodzi z NATO? "Żadnych informacji na ten temat"

Turcja wychodzi z NATO? "Żadnych informacji na ten temat"

Źródło:
Konkret24

Wołodymyr Zełenski podpisuje flagę ukraińskiej jednostki wojskowej, która podczas drugiej wojny światowej mordowała Polaków - z takim przekazem krąży w mediach społecznościowym pewne nagranie. To antyukraińska dezinformacja. Tłumaczymy, jaki naprawdę moment ten film pokazuje.

"Nie patrzy, co podpisuje"? Czyją flagę podpisał Zełenski

"Nie patrzy, co podpisuje"? Czyją flagę podpisał Zełenski

Źródło:
Konkret24

Na oskarżenia polityków Prawa i Sprawiedliwości o "bezprawnym odebraniu pieniędzy" przez rząd w wyniku decyzji PKW minister finansów odpowiada: w 2016 roku była "dokładnie analogiczna sytuacja". Chodzi o wstrzymanie wypłaty subwencji dla Nowoczesnej. Porównaliśmy więc oba przypadki.

Wstrzymanie subwencji: PiS w "analogicznej sytuacji" jak Nowoczesna? Grosz różnicy

Wstrzymanie subwencji: PiS w "analogicznej sytuacji" jak Nowoczesna? Grosz różnicy

Źródło:
Konkret24

Profesor Andrzej Zybertowicz z Kancelarii Prezydenta RP - podkreślając zasługi Andrzeja Dudy - utrzymuje, że przed jego prezydenturą "nie stacjonowały w Polsce amerykańskie wojska", a tarcza w Redzikowie jest pierwszą stałą bazą wojsk USA w naszym kraju. Nie umniejszając dorobku obecnego prezydenta, wyjaśniamy, dlaczego przypisywanie mu tych wszystkich zasług nie jest jednak uprawnione.

Amerykańskie wojska w Polsce. Co pominął profesor Zybertowicz?

Amerykańskie wojska w Polsce. Co pominął profesor Zybertowicz?

Źródło:
Konkret24

Czy rzeczywiście w tym roku do Polski "wjechało już więcej Rosjan" niż za poprzednich rządów? Tak twierdzi posłanka PiS Anna Gembicka. Przedstawiamy więc dane.

Ilu Rosjan "już wjechało do Polski"? Trend jest znaczący

Ilu Rosjan "już wjechało do Polski"? Trend jest znaczący

Źródło:
Konkret24

Opieszałość w wypłatach rządowej pomocy dla powodzian wzmocniła krytykę opozycji wobec działań ministra Marcina Kierwińskiego. Politycy PiS zarzucają, że "obsługa pełnomocnika" ma kosztować budżet 25 milionów złotych. Sprawdziliśmy, o jakie pieniądze chodzi i na co rzeczywiście mogą zostać przeznaczone.

25 milionów "na obsługę pełnomocnika ds. odbudowy po powodzi"? Co to za pieniądze

25 milionów "na obsługę pełnomocnika ds. odbudowy po powodzi"? Co to za pieniądze

Źródło:
Konkret24

Analitycy NATO sprawdzili, w których serwisach społecznościowych najłatwiej i najtaniej można kupić fałszywe zaangażowanie - polubienia, wyświetlenia, udostępnienia, komentarze. Te mogą być używane do wzmacniania treści politycznych i operacji wywierania wpływu. Badacze ocenili też, jak radzą sobie z tym platformy. Wnioski nie są zachęcające.

Ile fałszywych polubień, wyświetleń i komentarzy można kupić za 250 złotych? Raport NATO

Ile fałszywych polubień, wyświetleń i komentarzy można kupić za 250 złotych? Raport NATO

Źródło:
Konkret24

W mediach społecznościowych rozchodzi się nagranie prezentujące budynek Muzeum Sztuki Nowoczesnej w Warszawie zniszczony przez grafficiarzy. Nie jest to autentyczne wideo.

"Ogłoszono im zarzut zniszczenia mienia". Uwaga na ten film

"Ogłoszono im zarzut zniszczenia mienia". Uwaga na ten film

Źródło:
Konkret24

Po zatrzymaniu 14 listopada 2024 roku przez Centralne Biuro Antykorupcyjne prezydenta Wrocławia Jacka Sutryka pojawiło się pytanie, czy politycy mogą pracować w spółkach Skarbu Państwa i w spółkach samorządowych. Wątek ten wzbudził wiele wątpliwości wśród posłów. Wyjaśniamy, co stanowią przepisy.

Wójtowie, burmistrzowie, prezydenci miast, posłowie. Czego im nie wolno

Wójtowie, burmistrzowie, prezydenci miast, posłowie. Czego im nie wolno

Źródło:
Konkret24

Posłanka rządzącej koalicji mówi o "obstrukcji prac rządu" ze strony Andrzeja Dudy, a prezydencki minister utrzymuje, że to rządzący "żadnych ustaw nie kierują na biurko prezydenta". Kto ma rację? Sprawdziliśmy, ile ustaw Andrzej Duda dostał do podpisu i jaki był ich los.

"Obstrukcja prac rządu"? Ilu ustaw prezydent nie podpisał

"Obstrukcja prac rządu"? Ilu ustaw prezydent nie podpisał

Źródło:
Konkret24

Miliony odsłon w mediach społecznościowych generują wpisy z nagraniem, na którym Władimir Putin ma rzekomo mówić, że Rosja użyje broni jądrowej w przypadku masowego ataku rakietowego na jej terytorium. Nieprzypadkowo wideo to - z błędnym opisem - jest teraz rozpowszechniane przez prorosyjskie konta. Tłumaczymy, kiedy i co mówił rosyjski prezydent.

Władimir Putin o "użyciu broni jądrowej". Kiedy tak powiedział

Władimir Putin o "użyciu broni jądrowej". Kiedy tak powiedział

Źródło:
Konkret24

Substancje chemiczne w wodzie powodują u dzieci homoseksualizm, fluor obniża inteligencję, wirus HIV nie jest przyczyną AIDS, a szczepionki powodują autyzm - z takich fałszywych tez słynie Robert F. Kennedy Jr. Ten wyznawca spiskowych teorii ma wkrótce zadbać o zdrowie Amerykanów. Moment ogłoszenia tej decyzji określono już "strasznym dniem dla zdrowia publicznego".

"Uczynić Amerykę znowu zdrową". Robert F. Kennedy Jr. i jego chore teorie

"Uczynić Amerykę znowu zdrową". Robert F. Kennedy Jr. i jego chore teorie

Źródło:
Konkret24

Czy wiceministra klimatu Urszula Zielińska mówiła o "kapsułach napędzanych energią kosmiczną" i "szlakach dla sterowców z bambusa"? Według rozpowszechnianego w sieci nagrania proponowała takie technologie jako ekologiczne rozwiązania transportowe. Brzmi niewiarygodnie - bo film nie jest wiarygodny. To przykład, jak wykorzystano sztuczną inteligencję do stworzenia fałszywki.

"Energia księżycowa" i "fosforyzujące ślimaki". Minister ofiarą deep fake'a

"Energia księżycowa" i "fosforyzujące ślimaki". Minister ofiarą deep fake'a

Źródło:
Konkret24

Poseł Paweł Jabłoński ma nadzieję, że Donald Trump po ponownym objęciu urzędu prezydenta USA będzie naciskał, by Niemcy przeznaczały więcej na obronność. Tylko że podane przez posła PiS dane nie są już aktualne.

Jabłoński: "Niemcy do dzisiaj nie płacą 2 procent PKB na obronność". Sprawdziliśmy

Jabłoński: "Niemcy do dzisiaj nie płacą 2 procent PKB na obronność". Sprawdziliśmy

Źródło:
Konkret24

Rafał Trzaskowski "w Dzień Niepodległości pojechał po rogale do Poznania" - twierdzi poseł PiS Jacek Sasin. Gdy ogłosił to na swoim profilu, wielu zaprzeczało, na co on opublikował rzekomy "dowód". Co naprawdę 11 listopada robił prezydent Warszawy?

Kiedy Trzaskowski "pojechał po rogale"? Sasin nie ma racji

Kiedy Trzaskowski "pojechał po rogale"? Sasin nie ma racji

Źródło:
Konkret24

Nagranie z tłumami muzułmanów modlących się na ulicach dużego miasta wzbudza dyskusję w mediach społecznościowych. Rozchodzi się z przekazem, że to sceny z Paryża i dowód na "islamizację Europy". W tle pojawia się krytyka polityki francuskiego rządu. Nie jest to jednak Paryż, choć rzeczywiście miasto w Europie.

"Islamizacja Europy"? Skąd jest to nagranie

"Islamizacja Europy"? Skąd jest to nagranie

Źródło:
Konkret24

"Sikorski i Tusk blokowali jej budowę, dopóki mogli", "zablokowali w imię resetu z Putinem" - ten fałszywy przekaz dotyczący instalacji tarczy antyrakietowej w Polsce wrócił z okazji oficjalnego otwarcia bazy w Redzikowie. Od lat służy PiS jako element politycznej gry. Przypominamy, dlaczego inwestycja w Redzikowie tak się przeciągała.

Baza w Redzikowie. Jak to było z "blokowaniem budowy" tarczy antyrakietowej

Baza w Redzikowie. Jak to było z "blokowaniem budowy" tarczy antyrakietowej

Źródło:
Konkret24

Rozpowszechniany w sieci fragment wystąpienia Donalda Trumpa ma dowodzić, że według prezydenta elekta Polska powinna płacić za zaprowadzenie pokoju w Ukrainie. Nagranie jest prawdziwe, lecz jego interpretacja już nie.

"Polski rząd zapłaci" za te projekty. Kiedy i o czym Trump tak mówił?

"Polski rząd zapłaci" za te projekty. Kiedy i o czym Trump tak mówił?

Źródło:
Konkret24

Po przegraniu wyborów przez Kamalę Harris w sieci rozpowszechniane są fałszywe informacje mające zdyskredytować jej wynik. A w tle tej dezinformacji jest antyimigrancki przekaz - szerzony też w polskim internecie.

"Akurat w tych stanach" wygrała Kamala Harris? Wcale nie

"Akurat w tych stanach" wygrała Kamala Harris? Wcale nie

Źródło:
Konkret24

"Szokujące wyniki badań złotej medalistki"; "raport stawia sprawę jasno"; "raport medyczny poraża" - takie nagłówki o algierskiej pięściarce Imane Khelif można było czytać w polskich serwisach. Internauci pisali wprost, że "Imane Khelif jest mężczyzną" - też powołując się na rzekomy raport medyczny. Jednak brak dowodów, że "ujawniony" raport jest autentyczny, a wiele elementów tej historii się nie zgadza.

"Wyciekł raport medyczny" Imane Khelif? Nie ma dowodu, że jest prawdziwy

"Wyciekł raport medyczny" Imane Khelif? Nie ma dowodu, że jest prawdziwy

Źródło:
Konkret24

"Polskojęzyczny rząd postanowił zmienić słowa Roty" - oburzał się Konrad Berkowicz z Konfederacji, a poseł PiS Sebastian Kaleta pisał o "cenzurze proniemieckiej". Zdjęcie podręcznika do języka polskiego dla szkół średnich z tekstem "Roty" wywołało burzę w sieci: zamiast słowa "Niemiec" widnieje tam słowo "Krzyżak". Wyjaśniamy, skąd się wzięły różne wersje wiersza Marii Konopnickiej.

Krzyżak czy Niemiec w "Rocie" Konopnickiej? Mamy wyjaśnienie

Krzyżak czy Niemiec w "Rocie" Konopnickiej? Mamy wyjaśnienie

Aktualizacja:
Źródło:
Konkret24

Europoseł PiS Waldemar Buda wykorzystał dyskusję o mocnych punktach kampanii Donalda Trumpa, by przypomnieć osiągnięcia rządu Zjednoczonej Prawicy - według niego "ograniczył największą biedę, w tym i wśród dzieci". Tylko że najnowsze dane pokazują zaskakującą zmianę trendu za poprzedniego rządu.

Waldemar Buda: "ograniczyliśmy największą biedę". A co pokazują dane?

Waldemar Buda: "ograniczyliśmy największą biedę". A co pokazują dane?

Źródło:
Konkret24

Setki tysięcy wyświetleń w mediach społecznościowych - polskich i zagranicznych - generuje film prezentujący przezroczyste smartfony lub takie, które można zwijać. Sprzęt ten ma już być rzekomo produkowany w Chinach. Jednak nagranie nie ma nic wspólnego z rzeczywistością.

Przezroczyste, ultracienkie smartfony z Chin? Wyjaśniamy

Przezroczyste, ultracienkie smartfony z Chin? Wyjaśniamy

Źródło:
Konkret24