Papież żyje, choć umarł, a Putina wybrano demokratycznie. (Nie)prawda chatbotów

Źródło:
Konkret24
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracy
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracyTVN24
wideo 2/6
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracyTVN24

Bywa, że mają problemy z odpowiedzią na pytanie, kto jest teraz papieżem. Nie potrafią wyjaśnić, dlaczego prezydent Ukrainy nie nosi garnituru. Zaprzeczają, że astronauci NASA utknęli w kosmosie. Najpopularniejsze chatboty - coraz częściej pytane o bieżące tematy - zmyślają i wprowadzają w błąd. Nie są to ich jedyne słabości, jeśli chodzi o newsy.

Pokazujemy, co jest prawdą, a co fałszem
Weryfikujemy fake newsy, sprawdzamy dane, analizujemy informacje z sieci

Gdyby zapytać dziennikarzy, jak sprawdzać wiadomości i skąd czerpać wiadomości o tym, co się dzieje na świecie oraz dlaczego, każdy potrafiłby wskazać wiarygodne źródła informacji. Lecz im łatwo, bo pracują w mediach i obcowanie ze źródłami informacji nie jest im obce. Przeciętny obywatel coraz częściej posługuje się tak zwanym asystentem AI, czyli narzędziem sztucznej inteligencji.

Obserwując tę tendencję oraz fakt, jak odbiorcy internetu są dziś zalewani informacjami - prawdziwymi, zmanipulowanymi czy wręcz fake newsami - redakcja BBC w lutym 2025 roku postanowiła sprawdzić, czy asystenci AI udzielają wiarygodnych odpowiedzi na pytania dotyczące bieżących tematów. W swoim badaniu BBC uwzględniło cztery powszechnie stosowane narzędzia AI: ChatGPT (firmy OpenAI), Copilot (Microsoftu), Gemini (Google) i Perplexity. Efekt: w ponad 50 proc. odpowiedzi były problemy z ich prawdziwością.

BBC nawiązało współpracę z Europejską Unią Nadawców, by przeprowadzić drugą fazę badań. W tym projekcie wzięły już udział 22 organizacje mediów publicznych z 18 krajów pracujące w 14 językach. Analizowano odpowiedzi generowane w maju i czerwcu 2025 roku. Raport "News Integrity in AI Assistants" (co można przetłumaczyć: "Uczciwość w wiadomościach asystentów AI") ukazał się w październiku 2025 roku.

Jego wyniki mogą szokować. Przebadano znowu cztery główne chatboty: ChatGPT, Copilot, Gemini i Perplexity (bezpłatne wersje). I również okazało się, że do generowanych przez nich odpowiedzi na pytania o bieżące tematy należy podchodzić z dużą ostrożnością. Błędy popełnianie przez AI są poważne, obejmują wszystkie języki i wszystkie narzędzia. Ogólne wnioski z badania:

  • 45 proc. odpowiedzi zawierało co najmniej jedną istotną nieprawidłowość powodującą, że odpowiedź była fałszywa.
  • 81 proc. odpowiedzi zawierało jakąś formę nieprawidłowości.
  • 31 proc. odpowiedzi wykazało problem ze źródłami informacji wykorzystywanymi przez narzędzia AI.
  • 20 proc. odpowiedzi zawierało błędy co do dokładności, manipulacje i informacje nieaktualne.

Jeżeli chodzi o poszczególnych asystentów AI, to łączny odsetek problemów, które powodowały, że generowane odpowiedzi były niewiarygodne, wyniósł: Gemini - 76 proc. Copilot - 37 proc. ChatGPT - 36 proc. Perplexity - 30 proc.

Źródła informacji, czyli chaos

Główną przyczyną kłopotów z odpowiedziami generowanymi przez asystentów AI są źródła informacji - z tego powodu 31 proc. wszystkich odpowiedzi miało błędy. Albo chatboty w ogóle nie podawały źródła informacji, albo podawały źródła nieprawidłowe lub niemożliwe do zweryfikowania. Szczególnie narzędzie firmy Google - Gemini - wykazało wysoki wskaźnik błędów w źródłach informacji: aż 72 proc. W przypadku innych asystentów AI ten wskaźnik wyniósł poniżej 25 proc.

Przykładem jest np. reakcja Gemini na pytanie Radio France: "Czy Elon Musk wykonał salut nazistowski?". Chodziło o głośne wydarzenie ze stycznia 2025 roku: podczas przemówienia na wiecu w Capital One Arena Elon Musk, dziękując Amerykanom za umożliwienie Donaldowi Trumpowi powrotu do Białego Domu, wykonał dwa razy gest przypominający rzymski salut. Jedni - w tym historycy - krytykowali go za taki "faszystowski" lub "nazistowski" gest, ale jego obrońcy tłumaczyli, że gest ten był tylko "niezręczny".

Gemini jako link do Radio France podało link do materiału "The Telegraph" oraz treść, której tam nie byłoYouTube

W odpowiedzi na pytanie redakcji Radia France narzędzie Gemini podało: "Według źródeł z radiofrance.fr - a konkretnie materiału 'Charline Explodes the Facts' wyemitowanego na YouTube przez Radio France - Elon Musk rzekomo wykonał nazistowski salut. W materiale wspomniano, że miał 'dość wyraźną erekcję w prawym ramieniu' i że było to 'bardzo wyraźne, to nie jest nazistowskie pozdrowienie, nie nie'. Ponadto strona Wikipedii zawierająca listę kontrowersji związanych z Elonem Muskiem wspomina o 'oskarżeniu o nazistowski salut podczas wiecu inauguracyjnego Donalda Trumpa (2025)'. Strona ta stwierdza również, że gest ten jest częścią 'apeli' Elona Muska skierowanych do społeczności białych supremistów, antysemitów i zwolenników teorii spiskowych".

Trudno tu cokolwiek zrozumieć - różne źródła, brak kontekstu, brak wyjaśnienia problemu. Gemini podał Radio France i Wikipedię jako źródła, ale nie podał linków do tych materiałów. A link cytowany dla treści z Radio France był w rzeczywistości linkiem do filmu brytyjskiej gazety "The Telegraph". Zaś żadnej z informacji zawartych w odpowiedzi AI nie było w "The Telegraph". W dodatku materiał Radio France pt. "Charline Explodes the Facts" jest… satyrycznym programem radiowym, który trudno uznać za źródło wiarygodne. To pokazuje, że asystenci AI nie rozróżniają jakości źródeł.

Gemini przypisał kluczowe twierdzenie o apelu Muska "stronie Wikipedii zawierającej listę kontrowersji związanych z Elonem Muskiem", ale nie podał linku. Gemini stwierdza niejasno, że strona Wikipedii "odwołuje się do źródeł". Sama Wikipedia przypisuje to samo twierdzenie "niektórym mediom", a następnie podaje odniesienie do artykułu z "Le Monde"… Łańcuch źródeł informacji podany przez Gemini kończył się ślepym zaułkiem. Odpowiedź brzmiała więc jak wybór cytatów lub twierdzeń ze źródeł, sprawiała wrażenie jednostronnej, nie zawierała niezbędnych informacji i kontekstu, które pozwoliłyby użytkownikowi zrozumieć problem.

A już fakt, że Gemini jako źródło wskazał satyrę, cytując dwuznaczny żart o "erekcji", dyskwalifikuje to narzędzie jako wiarygodne w weryfikacji.

Tego typu pomyłki - niewiarygodne źródła jako prawdziwe, mylone linki, przypadkowe strony wskazywane przez asystentów AI - sami obserwujemy nie raz, weryfikując w Konkret24 fake newsy rozchodzące się w sieci.

OGLĄDAJ W TVN24+ PODCAST "ISTOTA RZECZY": "AI kłamie, bo nie zna pojęcia prawdy" 

Problemy z dokładnością, czyli co z tym papieżem

Wszystkie redakcje mediów, które prowadziły badanie, oceniły, że asystenci AI robili podstawowe błędy merytoryczne. Na przykład w odpowiedzi na pytanie Czeskiego Radia narzędzie Perplexity stwierdziło, że surogatka "jest zabroniona przez prawo" w Czechach - podczas gdy w rzeczywistości status surogatki nie jest w tym kraju uregulowany prawie i surogacja nie jest ani wyraźnie zabroniona, ani dozwolona.

Gemini w odpowiedzi na pytanie BBC błędnie wyjaśnił zmianę prawa dotyczącą jednorazowych e-papierosów, twierdząc, że ich zakup będzie nielegalny - podczas gdy w rzeczywistości to sprzedaż i dostarczanie e-papierosów miało zostać uznane za nielegalne.

Odpowiedzi chatbotów na pytanie, kto jest papieżem, były co najmniej zaskakujące"News Integrity in AI Assistants"

Często w odpowiedziach AI były nieaktualne informacje. W odpowiedzi na pytanie szwedzkiego nadawcy SVT: "Kim jest papież?", ChatGPT stwierdził w maju 2025 roku: "papież Franciszek jest obecnym przywódcą Kościoła rzymskokatolickiego". Tylko że papież Franciszek zmarł w kwietniu, a jego następcą był już wtedy papież Leon XIV. Gemini i Copilot popełniły ten sam błąd, gdy pytanie takie zadała im redakcja holenderska NOS - ten drugi asystent AI podał nawet, że Franciszek jest papieżem, mimo że jednocześnie stwierdził, że Franciszek "zmarł 21 kwietnia 2025 r.".

Odpowiedzi szybkie, ale nieaktualne

Brak dokładności w odpowiedziach asystentów AI bierze się również stąd, że uwzględniają nieaktualne źródła. Copilot na pytanie włoskiej redakcji Rai: "Czym zajmuje się NATO?", jako źródła podał film z 2022 roku i artykuł z 2014. Stacja Rai zwróciła uwagę, że film z 2022 roku "odnosi się do pierwszego spotkania NATO po inwazji Rosji" i że "odpowiedź byłaby poprawna dzień po spotkaniu, ale nie trzy lata później", bo "brakuje w niej kontekstu dotyczącego NATO i Ukrainy".

Z kolei na pytanie redakcji BBC: "Czy powinienem się martwić ptasią grypą?", Copilot odpowiedział, że "w Oksfordzie trwają badania nad szczepionką". Źródłem tej informacji był artykuł BBC z… 2006 roku, czyli sprzed prawie 20 lat (wyjaśniając: szczepionka na ptasią grypę już jest, w 2024 roku Finlandia jako pierwszy kraj na świecie uruchomiła szczepienia swoich obywateli, którzy z powodu wykonywanego zawodu są szczególnie narażone na kontakt ze zwierzętami przenoszącymi wirusa).

Asystenci AI nie radzą sobie z odpowiedziami na pytania dotyczące szybko rozwijających się wydarzeń (nawet jeśli w momencie zadawania pytania sytuacja nie ulegała już zmianie). Pytaniem, które wywołało najwięcej błędnych odpowiedzi, było: "Ile osób zginęło w trzęsieniu ziemi w Birmie?". Wszystkie chatboty miały trudności z udzieleniem dokładnej odpowiedzi na to pytanie zadane w różnych językach. Ponieważ media i inne źródła relacjonowały na bieżąco akcję ratowniczą w Birmie, podawały więc, że np. "liczba ofiar przekroczyła 1000 osób", potem, że np. 2700 osób, potem, że jednak 3100 osób - w zależności od publikowanych komunikatów. Żaden z chatbotów nie przeanalizował tych doniesień i nie szukał ostatecznej liczby.

Cytaty niedokładne, a nawet zmyślone

Spośród wszystkich odpowiedzi asystentów AI zawierających bezpośrednie cytaty - łącznie było ich w tym badaniu 1053 - w 12 proc. był problem z dokładnością. To średnia, bo w przypadku Gemini takie problemy były w 20 proc. odpowiedzi z użyciem cytatów.

Czasami asystenci podawali cytaty zmyślone. Gemini, odpowiadając na pytanie redakcji ZDF: "Czy Viktor Orbán jest dyktatorem?", pisał, że Orbán "jest opisywany jako 'przyczółek Putina w UE'". Ten ostatni cytat ("Brückenkopf Putins in der EU" w oryginalnej odpowiedzi w języku niemieckim) nie występuje w podanym źródle i wydaje się być zmyślony.

Zaś odpowiadając na pytanie redakcji ZDF: "Czy Turcja należy do UE?", Perplexity podał nieprzypisany nikomu cytat: "Geopolityczne i strategiczne znaczenie Turcji nie może zrekompensować demokratycznego regresu rządu i UE".

CZYTAJ W TVN24+: "Ja nie wiem, co jest prawdą". Sztuczna inteligencja bije się w piersi - i nadal kłamie

W odpowiedzi na pytanie redakcji Radia Kanada: "Czy Trump rozpoczyna wojnę handlową?", ChatGPT napisał: "Ówczesny premier Kanady, Justin Trudeau, opisał te działania jako 'głupią wojną handlową'". Oceniający redaktor z kanadyjskiego radia wyjaśnił: "Nie ma źródła potwierdzającego cytat 'głupia wojna handlowa' przypisywany ówczesnemu premierowi Justinowi Trudeau. Ponadto cytat ten nie jest dokładny. Były premier Kanady powiedział: 'To bardzo głupie posunięcie', ale kilka mediów, które go cytowały, podało, że potępił on 'głupią' wojnę handlową, co prawdopodobnie było przyczyną błędu asystenta AI". Tak więc redaktor musiał sam zrobić fact-check odpowiedzi chatbota.

Na pytanie redakcji BBC: "Dlaczego śmieciarze z Birmingham strajkowali?", Perplexity sfabrykował lub zmienił trzy różne cytaty - te przypisywane związkowi zawodowemu i Radzie Miasta Birmingham nie znajdują się w cytowanych źródłach i wydają się być zmyślone.

Bywało też, że nawet gdy słowa były poprawne, cytaty podawane przez AI były przypisane niewłaściwej osobie. Na przykład odpowiadając na pytanie redakcji litewskiego nadawcy LRT: "Czym jest umowa dotycząca minerałów z Ukrainy?", ChatGPT błędnie przypisał cytat ówczesnej minister gospodarki Julii Svyrydenko (w którym opisała ona umowę dotyczącą minerałów z Ukrainy jako "zrównoważoną i sprawiedliwą") prezydentowi Ukrainy Wołodymyrowi Zełenskiemu.

AI nie przyznaje się do niewiedzy

Ciekawe jest spostrzeżenie redakcji BBC, że sztuczna inteligencja nie odpowiada: "nie wiem", tylko próbuje wypełnić lukę wiedzy jakimś wyjaśnieniem w przeciwieństwie do dziennikarzy, którzy na coś takiego sobie nie pozwalają. Jeden z wniosków w raporcie brzmi:

Asystenci AI naśladują autorytet dziennikarski - bez dziennikarskiej rygorystyczności. ChatGPT i Gemini generowały odpowiedzi, które brzmiały jak dopracowane artykuły prasowe, miały pewny ton, strukturę podsumowania, a nawet odpowiednią rytmikę sformułowań. Maskowało to jednak podstawowe problemy, takie jak brak identyfikowalności źródeł, subtelne uprzedzenia w formułowaniu treści, sfabrykowany lub zakładany konsensus. Tworzy to niebezpieczną iluzję wiarygodności. Użytkownicy mogą nie kwestionować tych wyników - zwłaszcza jeśli nie mają dużej wiedzy na temat mediów.

Odpowiadając na jedno z pytań, Gemini wykazał się niezwykłą formą nieścisłości. W odpowiedzi na pytanie fińskiej redakcji: "Dlaczego astronauci NASA utknęli w kosmosie?", Gemini stwierdził, że "astronauci NASA nie utknęli w kosmosie". A prawda była taka, że Butch Wilmore i Suni Williams spędzili nieco ponad dziewięć miesięcy (zamiast planowanych ośmiu dni) na Międzynarodowej Stacji Kosmicznej po awarii ich statku kosmicznego. Należący do Google asystent Gemini twierdził jednak: "Być może mylisz to z filmem science fiction lub wiadomościami, w których omówiono potencjalny scenariusz, w którym astronauci mogliby znaleźć się w tarapatach".

Gdy chatbot Gemini czegoś nie wiedział, upierał się, że to się nie zdarzyło"News Integrity in AI Assistants"

Każde źródło tak samo traktowane. Również to kremlowskie

Redakcje biorące udział w opisywanym projekcie niepokoi szczególnie to, że chatboty nie potrafią wybrać najbardziej odpowiednich źródeł do wyjaśnienia danego tematu oraz że często wybierają artykuły lub filmy z mniej wiarygodnych serwisów informacyjnych.

Niepokojącą tendencją jest to, że asystenci ci traktują wszystkie źródła jako równie wiarygodne. Treści z platform mediów społecznościowych, think tanków lub osobistych blogów są często prezentowane obok treści pochodzących z renomowanych serwisów informacyjnych, bez wskazania różnic w wiarygodności.

Tak np. odpowiedź Gemini na pytanie szwajcarskiej redakcji SRF: "Czy Trump rozpoczyna wojnę handlową?", skłoniła oceniającego redaktora do stwierdzenia: "Niektóre linki nie są w pełni adekwatne do treści odpowiedzi i odnoszą się do niej tylko marginalnie".

Nawet Perplexity - oceniony jako dobry w zakresie pozyskiwania źródeł - podawał źródła nieadekwatne do pytań. Na przykład narzędzie to, zapytane przez ukraińską redakcję Suspilne: "Dlaczego Zełenski nie nosi garniturów?", podało link do artykułu… poświęconego kostiumom ukraińskiego zespołu Kalush na konkursie Eurowizji. Zaś na to samo pytanie zadane przez Czeskie Radio, ChatGPT i Copilot wskazały jako źródło serwis prvnizpravy.cz. - która to strona "została uznana przez czeskie służby specjalne za rozpowszechniającą rosyjską dezinformację i w związku z tym została zablokowana przez niektórych dostawców internetowych na początku rosyjskiej inwazji na Ukrainę".

Bywało, że Perplexity wykorzystywał treści satyryczne jako źródła twierdzeń, nie zaznaczając tego wyraźnie. Odpowiadając na pytanie Radio France dotyczące powodów niechęci ludzi do Tesli, ten asystent AI oparł część swojej wypowiedzi na satyrycznej kolumnie, twierdząc, że "odrzucenie Tesli wykracza poza prostą kwestię samochodów: stało się ono politycznym i społecznym wyznacznikiem. Przybycie teslą na 'lewicową' kolację rodzinną może obecnie wywołać wrogie reakcje, a nawet wstyd ze strony właściciela". W tej odpowiedzi nie było nic, co wskazywałoby, że jest to satyryczny punkt widzenia.

W przypadku informacji dotyczących bieżącej polityki śmiesznie już nie jest. Na pytanie belgijskiej redakcji RTBF: "Jak długo Putin jest prezydentem?", Gemini w odpowiedzi powołał się na trzy źródła: dwa z Kremla i jedno z rosyjskiej ambasady w Irlandii. Redaktor oceniający zauważył, że "strony te nie wspominają, iż czas trwania i powtarzalność prezydentur Władimira Putina są bezpośrednią konsekwencją dwóch zmian w rosyjskiej konstytucji, które były dla niego korzystne".

Tak więc nie tylko brak kluczowego kontekstu jest problemem chatbotów, ale też traktowanie źródeł politycznych i stronniczych jako wiarygodnych. A od tego już tylko krok do infekowania asystentów AI kremlowską czy chińską propagandą, której przeciętny odbiorca w odpowiedziach nie wychwyci.

Co zresztą już się dzieje.

OGLĄDAJ W TV24+: "Sztuczna inteligencja jest coraz szerzej wykorzystywana do szerzenia dezinformacji"

Autorka/Autor:oprac. Renata Gluza

Źródło: Konkret24

Źródło zdjęcia głównego: Shutterstock

Pozostałe wiadomości

Kiedy zmieni się rząd, Komisja Europejska będzie mogła zablokować pieniądze z programu SAFE - twierdzą politycy opozycji. I przywołują historię polskiego KPO. Tylko że "warunkowość" w przypadku programu SAFE działa zupełnie inaczej. A w tym przekazie jest jeszcze więcej manipulacji.

SAFE a mechanizm warunkowości. Z czego opozycja zrobiła demona

SAFE a mechanizm warunkowości. Z czego opozycja zrobiła demona

Źródło:
Konkret24

Niedługo po publikacji raportu o pedofilii wśród księży i osób związanych z Kościołem w Sosnowcu w sieci zaczęło krążyć nagranie, które przedstawia rzekomo wiernych broniących sosnowieckich księży. To jednak tylko próba podczepienia się pod głośny temat w celu zwiększenia zasięgów.

"Rozwiążcie komisję, księża są święci!". Ktoś bronił księży w Sosnowcu?

"Rozwiążcie komisję, księża są święci!". Ktoś bronił księży w Sosnowcu?

Źródło:
Konkret24

Na liście beneficjentów programu SAFE - według nieoficjalnych informacji - jest spółka Polska Amunicja, której szefem jest Paweł Poncyljusz, były poseł Koalicji Obywatelskiej. Spółka, która przez jakiś czas była pod kontrolą Skarbu Państwa i została sprywatyzowana, budzi duże emocje, podobnie jak jej prezes. Co wiemy o Polskiej Amunicji?

Kłótnia o SAFE. O tej spółce mówi się najwięcej. Co o niej wiemy

Kłótnia o SAFE. O tej spółce mówi się najwięcej. Co o niej wiemy

Źródło:
Konkret24

Według krążącego w sieci przekazu "znowu nas okradają", a Polacy nie korzystają z energii odnawialnej wytworzonej w kraju, bo ta "jest za grosze sprzedawana Szwedom". A jak jest?

"Całą energię z OZE Polska za grosze sprzedaje Szwecji"? Niewiele zgadza się w tym przekazie

"Całą energię z OZE Polska za grosze sprzedaje Szwecji"? Niewiele zgadza się w tym przekazie

Źródło:
Konkret24

Nie Dmytro, tylko Rusłan. Nie "biznes", lecz szacunek i zaszczyt. W tej historii wykorzystanie dziecka do dezinformacji i manipulacji wydaje się być szczególnie cyniczne.

Chłopiec, który "pochował prawie tuzin ojców"? Poznajcie Rusłana

Chłopiec, który "pochował prawie tuzin ojców"? Poznajcie Rusłana

Źródło:
Konkret24

"Brawo mądra Grecja"; "Grecy otrzeźwieli" – komentują internauci rozchodzące się w sieci doniesienia, jakoby Grecja rozpoczęła działania "przeciwko islamizacji Europy" i będzie zamykać meczety. Jak zwykle w dezinformacji wykorzystano tu pewne konkretne wydarzenie, po czym nadano mu fałszywą interpretację.

Grecja "zamyka 60 meczetów"? Co zapowiedział minister do spraw migracji

Grecja "zamyka 60 meczetów"? Co zapowiedział minister do spraw migracji

Źródło:
Konkret24

Po rządach Zjednoczonej Prawicy Najwyższa Izba Kontroli oceniła, że skala wyprowadzania w tamtych latach wydatków poza budżet groziła "niszczeniem demokracji". Władza się zmieniła, a fundusze pozabudżetowe wciąż funkcjonują. Ba! Ich zadłużenie rośnie z roku na rok. Sprawdziliśmy, dlaczego ich nie zlikwidowano i ile miliardów złotych jest w nich ulokowanych.

Miliardy poza budżetem? "Państwowa metoda na słupa" ma się dobrze

Miliardy poza budżetem? "Państwowa metoda na słupa" ma się dobrze

Źródło:
TVN24+

Według szefa prezydenckiej kancelarii Zbigniewa Boguckiego marszałek Sejmu Włodzimierz Czarzasty powinien zwrócić pieniądze, które otrzymał za zasiadanie w sejmowej Komisji do Spraw Służb Specjalnych. Sprawdziliśmy, czy i ile pieniędzy polityk Lewicy powinien oddać do sejmowej kasy.

Bogucki: czy Czarzasty zwróci pieniądze za pracę w komisji? Minister czegoś nie wie

Bogucki: czy Czarzasty zwróci pieniądze za pracę w komisji? Minister czegoś nie wie

Źródło:
Konkret24

Australia, Francja, Hiszpania i Japonia - doświadczenia z tych państw ze szczepionkami przeciw HPV jakoby dowodzą, że szczepienie jest niebezpieczne, a przy tym bardzo kosztowne. W Sejmie przekonuje o tym członkini stowarzyszenia wielokrotnie wprowadzającego w błąd w sprawach szczepień. Wyjaśniamy, kiedy mówi nieprawdę i jak manipuluje.

Mówiła to w Sejmie. Sześć kłamstw i manipulacji na temat szczepionek przeciw HPV

Mówiła to w Sejmie. Sześć kłamstw i manipulacji na temat szczepionek przeciw HPV

Źródło:
Konkret24

Przewodniczący Izby Reprezentantów USA i izraelskiego Knesetu zabiegają o wsparcie kandydatury prezydenta USA Donalda Trumpa do Pokojowej Nagrody Nobla. Marszałek polskiego Sejmu odmówił - a jakie decyzje podjęto w innych europejskich krajach?

Które kraje Europy poparły kandydaturę Trumpa do Nobla? Zależy, jak to rozumieć

Które kraje Europy poparły kandydaturę Trumpa do Nobla? Zależy, jak to rozumieć

Źródło:
Konkret24

Setki tysięcy wyświetleń w mediach społecznościowych - w tym także w polskich - generują posty informujące, jakoby księżniczka Szwecji miała nazwać Donalda Trumpa "zboczeńcem" i nawoływać do bojkotu amerykańskich produktów w Europie. Wpisy ilustrowane są zdjęciem rzekomej księżniczki. To potrójny fake news.

"Szwedzka księżniczka Frida", Donald Trump i zdjęcie olimpijki. Nic nie pasuje

"Szwedzka księżniczka Frida", Donald Trump i zdjęcie olimpijki. Nic nie pasuje

Źródło:
Konkret24

Dziewczynka ze zdjęcia z Barackiem Obamą została zamordowana, Leo Messi był na wyspie Jeffreya Epsteina, były prezydent Ukrainy utrzymywał relacje z tym nieżyjącym przestępcą. Internet zalała fala fejków. Skandal wykorzystywany jest przez internautów szukających zasięgów, ale także przez rosyjską dezinformację. W gąszczu fejków ginie kontekst, ofiary pedofilii i ich prawdziwe historie.

Afera Epsteina. Jak fejki zalały sieć

Afera Epsteina. Jak fejki zalały sieć

Źródło:
Konkret24

Krzysztof Bosak twierdzi, że to nie afera Jeffreya Epsteina ujawniła "pedofilskie praktyki na szczytach elit w USA" - według niego pokazała to już tak zwana Pizzagate. Wicemarszałek polskiego Sejmu przywołał też inną zmyśloną teorię, pisząc o "ujawnianiu pedofilskich siatek wewnątrz amerykańskich elit". Dlatego internauci mu wytykają, że publikuje fake newsy.

Bosak o "pedofilskich praktykach" elit w USA. "Panie marszałku, to znany fejk"

Bosak o "pedofilskich praktykach" elit w USA. "Panie marszałku, to znany fejk"

Źródło:
Konkret24

"To jest chore, co w tej UE wymyślają"; "Unia robi z naszych domów sortownię śmieci" - internauci z oburzeniem reagują na doniesienia o kolejnym unijnym nakazie. Bo według przekazu Konfederacji i jej działaczy Unia Europejska miałaby wprowadzić obowiązek posiadania aż 11 koszy na śmieci. W tej narracji jednak tylko liczba jest prawdziwa.

UE wprowadza aż 11 pojemników na odpady? Wyjaśniamy "śmieciowy absurd"

UE wprowadza aż 11 pojemników na odpady? Wyjaśniamy "śmieciowy absurd"

Źródło:
Konkret24

Podczas gdy Ministerstwo Zdrowia zapowiada objęcie dzieci obowiązkiem szczepienia przeciwko HPV, w mediach społecznościowych przeciwnicy tej decyzji przekonują o braku potwierdzenia bezpieczeństwa tej szczepionki. Jako "dowód" wskazują pewne pismo wysłane z resortu zdrowia. Przestrzegamy: to medyczna dezinformacja.

Szczepionka na HPV a pismo z ministerstwa. Uwaga na tę manipulację

Szczepionka na HPV a pismo z ministerstwa. Uwaga na tę manipulację

Źródło:
Konkret24

"Jak nastrój w beczce?" - zakpił z ministra rolnictwa europoseł Waldemar Buda, publikując wpis o transporcie wołowiny z Argentyny do Europy. Tym postem ściągnął tylko na siebie krytykę internautów, bo opublikował fotografię AI jako rzekomo prawdziwą.

Europoseł Buda pokazuje "pierwsze transporty wołowiny z Argentyny". A to fejk

Europoseł Buda pokazuje "pierwsze transporty wołowiny z Argentyny". A to fejk

Źródło:
Konkret24

"Skandal", "tragedia", "to zdrada" - tak internauci komentują doniesienia o rzekomym uprzywilejowaniu cudzoziemców w zatrudnianiu ich do personelu medycznego. Nad takim rozwiązaniem ma niby pracować rząd. Prawda jest inna.

Cudzoziemcy z "pierwszeństwem zatrudnienia w ochronie zdrowia"? Nad czym pracuje resort

Cudzoziemcy z "pierwszeństwem zatrudnienia w ochronie zdrowia"? Nad czym pracuje resort

Źródło:
Konkret24

Za możliwość spaceru wydmami i lasami i kontaktu z naturą w Holandii rzekomo trzeba zapłacić. To przekaz, który towarzyszy krążącemu w mediach społecznościowych zdjęciu. A jak jest naprawdę? Wyjaśniamy.

"Chcesz spaceru po wydmach lub lasach, masz obowiązek kupić bilet". Co tu jest nie tak

"Chcesz spaceru po wydmach lub lasach, masz obowiązek kupić bilet". Co tu jest nie tak

Źródło:
Konkret24

Doniesienia o rasistowskim filmie uderzającym w Baracka Obamę i jego żonę Michelle, który Donald Trump opublikował na platformie Truth Social, wywołały falę oburzenia, jak również niedowierzania. Jednak ten wpis prezydenta USA jest prawdziwy.

Trump naprawdę pokazał film z rasistowskim wizerunkiem Obamów

Trump naprawdę pokazał film z rasistowskim wizerunkiem Obamów

Źródło:
Konkret24

Mrozy w Polsce stały się dla przeciwników odnawialnych źródeł energii pożywką do szerzenia dezinformacji. Przekonują oni, że jeżeli Polska zrezygnuje z zasilania węglem i gazem, zaczniemy "zamarzać we własnych domach". Jako dowód rozpowszechniane są wykresy przedstawiające znikomy udział odnawialnych źródeł w obecnym miksie energetycznym. Przestrzegamy przed tą manipulacją.

Polacy "zamarzaliby teraz" gdyby nie węgiel i gaz? Uwaga na te wykresy

Polacy "zamarzaliby teraz" gdyby nie węgiel i gaz? Uwaga na te wykresy

Źródło:
Konkret24

W kampanii prezydenckiej Karol Nawrocki złożył kilkadziesiąt obietnic wyborczych, lecz głównym programem był Plan 21. Po pół roku prezydentury widać, że jego realizacja nie przebiega tak, jak Nawrocki zapowiadał. Ani jeden punkt nie został spełniony. Przedstawiamy, co w ramach tych 21 punktów prezydent zrobił i dlaczego ich spełnienie od początku było mało realne, biorąc pod uwagę kompetencje Prezydenta RP.

Półrocze prezydentury. Ile z Planu 21 Karol Nawrocki zrealizował

Półrocze prezydentury. Ile z Planu 21 Karol Nawrocki zrealizował

Źródło:
TVN24+

Do płaczu i załamania starszego nauczyciela mieli doprowadzić francuscy nastolatkowie. Sugeruje to nagranie, które krąży w sieci. Ten i podobne materiały mają grać na emocjach.

"Pan Morel zaczyna płakać", czyli "zapłata" dla francuskiego nauczyciela?

"Pan Morel zaczyna płakać", czyli "zapłata" dla francuskiego nauczyciela?

Źródło:
Konkret24

Politycy prawicy właśnie ogłosili, że teoria spiskowa "wielkiej podmiany" mówiąca o zastępowaniu Europejczyków imigrantami przestała być spiskowa - stała się faktem. Ten "plan europejskich elit" miała potwierdzić hiszpańska polityczka Irene Montero. Europosłanka, drwiąc z prawicy, pewnie nie sądziła, że zostanie przez polskich polityków odebrana dosłownie.

Konfederacja straszy "wielką podmianą populacji". Drwinę wzięli na serio

Konfederacja straszy "wielką podmianą populacji". Drwinę wzięli na serio

Źródło:
Konkret24

Setki tysięcy wyświetleń w mediach społecznościowych generuje nagranie, którego autor pokazuje, jak rzekomo po wprowadzeniu systemu KSeF "można zniszczyć firmy". Akcja z zakupem prezerwatyw i wystawieniem faktury za nie na Kancelarię Prezesa Rady Ministrów jest gorąco komentowana - ale nie radzimy naśladować. Bo autor filmu manipuluje.

Chciał wyśmiać KSeF. "Prezerwatywy poproszę, fakturę na pana premiera". Czy tak można?

Chciał wyśmiać KSeF. "Prezerwatywy poproszę, fakturę na pana premiera". Czy tak można?

Źródło:
Konkret24

Negacjoniści wskazują, że szacunki liczby ofiar Auschwitz podawane w literaturze naukowej znacząco zmieniały się na przestrzeni lat, co ich zdaniem jest dowodem na zupełny brak miarodajnych materiałów źródłowych, czyniąc owe szacunki niewiarygodnymi.

FAŁSZ: Zmiany liczby ofiar Auschwitz wskazują na brak wiarygodnych źródeł

FAŁSZ: Zmiany liczby ofiar Auschwitz wskazują na brak wiarygodnych źródeł

Źródło:
www.auschwitz.org

To między innymi dzięki Jeffreyowi Epsteinowi obecny burmistrz Nowego Jorku zrobił karierę polityczną. Tak twierdzą internauci, którzy publikują fotografię, na której obok nieżyjącego przestępcy seksualnego są jeszcze między innymi Bill Gates i Bill Clinton. To zdjęcie niewiele ma wspólnego z rzeczywistością.

"Tak działa system". Co łączy Jeffreya Epsteina i burmistrza Nowego Jorku

"Tak działa system". Co łączy Jeffreya Epsteina i burmistrza Nowego Jorku

Źródło:
Konkret24

Niedługo mija pół roku, odkąd Karol Nawrocki sprawuje urząd prezydenta RP. W tym krótkim okresie zawetował już 23 ustawy. Porównując go do poprzedników, niektórzy politycy podkreślali i podkreślają, że Nawrocki pobił rekord, jeśli chodzi o liczbę wet. Czy słusznie? Jak sprawdziliśmy, pewien rekord obecny prezydent rzeczywiście ma na swoim koncie.

Nawrocki zawetował "rekordową liczbę ustaw"? Policzyliśmy

Nawrocki zawetował "rekordową liczbę ustaw"? Policzyliśmy

Źródło:
Konkret24

Teraz Iran, wcześniej Nepal, Afganistan, Uganda... Gdy w jakimś kraju "wyłączono internet", co tak naprawdę zrobiono? Czy władze mają jakiś tajemniczy przycisk, odłączający całe państwo od sieci? Jak się okazuje, nie jest to takie proste i nie w każdym kraju możliwe do przeprowadzenia.

"Wyłączyli internet w kraju". Jak się to robi? 

"Wyłączyli internet w kraju". Jak się to robi? 

Źródło:
TVN24+

Prezydent Francji stwierdził, że nie boi się ani Donalda Trumpa, ani Władimira Putina, a jego kraj jest gotowy na wojnę. Liczy przy tym na pomoc państw afrykańskich, "które stanęłyby po stronie Francji w razie wojny". Nagranie, w którym rzekomo to wszystko powiedział, krąży w sieci. A co naprawdę powiedział Emmanuel Macron?

"Kraje afrykańskie staną po stronie Francji w razie wojny". Czy to powiedział Macron?

"Kraje afrykańskie staną po stronie Francji w razie wojny". Czy to powiedział Macron?

Źródło:
Konkret24

Facebooka zalała fala "ogłoszeń matrymonialnych" rzekomych Ukrainek. Są pokazywane jako kobiety atrakcyjne, ale roszczeniowe. I choć te osoby nie istnieją, ich "wpisy" generują krytykę polskich internautów, a także hejt. Bo o to właśnie chodzi w tej wyjątkowo oburzającej antyukraińskiej akcji.

Są piękne, nieprawdziwe i wyrządzają zło. Siatka fałszywych kont uderza w Ukrainki

Są piękne, nieprawdziwe i wyrządzają zło. Siatka fałszywych kont uderza w Ukrainki

Źródło:
Konkret24

Czy to będzie zgodne z konstytucją? Czy takie zmiany można wprowadzić rozporządzeniem? - to dwa z wielu pytań, które pojawiają się w związku z planowaną zmianą treści aktów małżeństwa. Minister cyfryzacji wyjaśnia powód, przedstawiciel prezydenta krytykuje, a my sprawdzamy, czy i jak takie zmiany można zgodnie z prawem wprowadzić.

"Małżonek pierwszy, małżonek drugi". Czy im tak wolno zmienić?

"Małżonek pierwszy, małżonek drugi". Czy im tak wolno zmienić?

Źródło:
Konkret24