Papież żyje, choć umarł, a Putina wybrano demokratycznie. (Nie)prawda chatbotów

Źródło:
Konkret24
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracy
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracyTVN24
wideo 2/6
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracyTVN24

Bywa, że mają problemy z odpowiedzią na pytanie, kto jest teraz papieżem. Nie potrafią wyjaśnić, dlaczego prezydent Ukrainy nie nosi garnituru. Zaprzeczają, że astronauci NASA utknęli w kosmosie. Najpopularniejsze chatboty - coraz częściej pytane o bieżące tematy - zmyślają i wprowadzają w błąd. Nie są to ich jedyne słabości, jeśli chodzi o newsy.

Pokazujemy, co jest prawdą, a co fałszem
Weryfikujemy fake newsy, sprawdzamy dane, analizujemy informacje z sieci

Gdyby zapytać dziennikarzy, jak sprawdzać wiadomości i skąd czerpać wiadomości o tym, co się dzieje na świecie oraz dlaczego, każdy potrafiłby wskazać wiarygodne źródła informacji. Lecz im łatwo, bo pracują w mediach i obcowanie ze źródłami informacji nie jest im obce. Przeciętny obywatel coraz częściej posługuje się tak zwanym asystentem AI, czyli narzędziem sztucznej inteligencji.

Obserwując tę tendencję oraz fakt, jak odbiorcy internetu są dziś zalewani informacjami - prawdziwymi, zmanipulowanymi czy wręcz fake newsami - redakcja BBC w lutym 2025 roku postanowiła sprawdzić, czy asystenci AI udzielają wiarygodnych odpowiedzi na pytania dotyczące bieżących tematów. W swoim badaniu BBC uwzględniło cztery powszechnie stosowane narzędzia AI: ChatGPT (firmy OpenAI), Copilot (Microsoftu), Gemini (Google) i Perplexity. Efekt: w ponad 50 proc. odpowiedzi były problemy z ich prawdziwością.

BBC nawiązało współpracę z Europejską Unią Nadawców, by przeprowadzić drugą fazę badań. W tym projekcie wzięły już udział 22 organizacje mediów publicznych z 18 krajów pracujące w 14 językach. Analizowano odpowiedzi generowane w maju i czerwcu 2025 roku. Raport "News Integrity in AI Assistants" (co można przetłumaczyć: "Uczciwość w wiadomościach asystentów AI") ukazał się w październiku 2025 roku.

Jego wyniki mogą szokować. Przebadano znowu cztery główne chatboty: ChatGPT, Copilot, Gemini i Perplexity (bezpłatne wersje). I również okazało się, że do generowanych przez nich odpowiedzi na pytania o bieżące tematy należy podchodzić z dużą ostrożnością. Błędy popełnianie przez AI są poważne, obejmują wszystkie języki i wszystkie narzędzia. Ogólne wnioski z badania:

  • 45 proc. odpowiedzi zawierało co najmniej jedną istotną nieprawidłowość powodującą, że odpowiedź była fałszywa.
  • 81 proc. odpowiedzi zawierało jakąś formę nieprawidłowości.
  • 31 proc. odpowiedzi wykazało problem ze źródłami informacji wykorzystywanymi przez narzędzia AI.
  • 20 proc. odpowiedzi zawierało błędy co do dokładności, manipulacje i informacje nieaktualne.

Jeżeli chodzi o poszczególnych asystentów AI, to łączny odsetek problemów, które powodowały, że generowane odpowiedzi były niewiarygodne, wyniósł: Gemini - 76 proc. Copilot - 37 proc. ChatGPT - 36 proc. Perplexity - 30 proc.

Źródła informacji, czyli chaos

Główną przyczyną kłopotów z odpowiedziami generowanymi przez asystentów AI są źródła informacji - z tego powodu 31 proc. wszystkich odpowiedzi miało błędy. Albo chatboty w ogóle nie podawały źródła informacji, albo podawały źródła nieprawidłowe lub niemożliwe do zweryfikowania. Szczególnie narzędzie firmy Google - Gemini - wykazało wysoki wskaźnik błędów w źródłach informacji: aż 72 proc. W przypadku innych asystentów AI ten wskaźnik wyniósł poniżej 25 proc.

Przykładem jest np. reakcja Gemini na pytanie Radio France: "Czy Elon Musk wykonał salut nazistowski?". Chodziło o głośne wydarzenie ze stycznia 2025 roku: podczas przemówienia na wiecu w Capital One Arena Elon Musk, dziękując Amerykanom za umożliwienie Donaldowi Trumpowi powrotu do Białego Domu, wykonał dwa razy gest przypominający rzymski salut. Jedni - w tym historycy - krytykowali go za taki "faszystowski" lub "nazistowski" gest, ale jego obrońcy tłumaczyli, że gest ten był tylko "niezręczny".

Gemini jako link do Radio France podało link do materiału "The Telegraph" oraz treść, której tam nie byłoYouTube

W odpowiedzi na pytanie redakcji Radia France narzędzie Gemini podało: "Według źródeł z radiofrance.fr - a konkretnie materiału 'Charline Explodes the Facts' wyemitowanego na YouTube przez Radio France - Elon Musk rzekomo wykonał nazistowski salut. W materiale wspomniano, że miał 'dość wyraźną erekcję w prawym ramieniu' i że było to 'bardzo wyraźne, to nie jest nazistowskie pozdrowienie, nie nie'. Ponadto strona Wikipedii zawierająca listę kontrowersji związanych z Elonem Muskiem wspomina o 'oskarżeniu o nazistowski salut podczas wiecu inauguracyjnego Donalda Trumpa (2025)'. Strona ta stwierdza również, że gest ten jest częścią 'apeli' Elona Muska skierowanych do społeczności białych supremistów, antysemitów i zwolenników teorii spiskowych".

Trudno tu cokolwiek zrozumieć - różne źródła, brak kontekstu, brak wyjaśnienia problemu. Gemini podał Radio France i Wikipedię jako źródła, ale nie podał linków do tych materiałów. A link cytowany dla treści z Radio France był w rzeczywistości linkiem do filmu brytyjskiej gazety "The Telegraph". Zaś żadnej z informacji zawartych w odpowiedzi AI nie było w "The Telegraph". W dodatku materiał Radio France pt. "Charline Explodes the Facts" jest… satyrycznym programem radiowym, który trudno uznać za źródło wiarygodne. To pokazuje, że asystenci AI nie rozróżniają jakości źródeł.

Gemini przypisał kluczowe twierdzenie o apelu Muska "stronie Wikipedii zawierającej listę kontrowersji związanych z Elonem Muskiem", ale nie podał linku. Gemini stwierdza niejasno, że strona Wikipedii "odwołuje się do źródeł". Sama Wikipedia przypisuje to samo twierdzenie "niektórym mediom", a następnie podaje odniesienie do artykułu z "Le Monde"… Łańcuch źródeł informacji podany przez Gemini kończył się ślepym zaułkiem. Odpowiedź brzmiała więc jak wybór cytatów lub twierdzeń ze źródeł, sprawiała wrażenie jednostronnej, nie zawierała niezbędnych informacji i kontekstu, które pozwoliłyby użytkownikowi zrozumieć problem.

A już fakt, że Gemini jako źródło wskazał satyrę, cytując dwuznaczny żart o "erekcji", dyskwalifikuje to narzędzie jako wiarygodne w weryfikacji.

Tego typu pomyłki - niewiarygodne źródła jako prawdziwe, mylone linki, przypadkowe strony wskazywane przez asystentów AI - sami obserwujemy nie raz, weryfikując w Konkret24 fake newsy rozchodzące się w sieci.

OGLĄDAJ W TVN24+ PODCAST "ISTOTA RZECZY": "AI kłamie, bo nie zna pojęcia prawdy" 

Problemy z dokładnością, czyli co z tym papieżem

Wszystkie redakcje mediów, które prowadziły badanie, oceniły, że asystenci AI robili podstawowe błędy merytoryczne. Na przykład w odpowiedzi na pytanie Czeskiego Radia narzędzie Perplexity stwierdziło, że surogatka "jest zabroniona przez prawo" w Czechach - podczas gdy w rzeczywistości status surogatki nie jest w tym kraju uregulowany prawie i surogacja nie jest ani wyraźnie zabroniona, ani dozwolona.

Gemini w odpowiedzi na pytanie BBC błędnie wyjaśnił zmianę prawa dotyczącą jednorazowych e-papierosów, twierdząc, że ich zakup będzie nielegalny - podczas gdy w rzeczywistości to sprzedaż i dostarczanie e-papierosów miało zostać uznane za nielegalne.

Odpowiedzi chatbotów na pytanie, kto jest papieżem, były co najmniej zaskakujące"News Integrity in AI Assistants"

Często w odpowiedziach AI były nieaktualne informacje. W odpowiedzi na pytanie szwedzkiego nadawcy SVT: "Kim jest papież?", ChatGPT stwierdził w maju 2025 roku: "papież Franciszek jest obecnym przywódcą Kościoła rzymskokatolickiego". Tylko że papież Franciszek zmarł w kwietniu, a jego następcą był już wtedy papież Leon XIV. Gemini i Copilot popełniły ten sam błąd, gdy pytanie takie zadała im redakcja holenderska NOS - ten drugi asystent AI podał nawet, że Franciszek jest papieżem, mimo że jednocześnie stwierdził, że Franciszek "zmarł 21 kwietnia 2025 r.".

Odpowiedzi szybkie, ale nieaktualne

Brak dokładności w odpowiedziach asystentów AI bierze się również stąd, że uwzględniają nieaktualne źródła. Copilot na pytanie włoskiej redakcji Rai: "Czym zajmuje się NATO?", jako źródła podał film z 2022 roku i artykuł z 2014. Stacja Rai zwróciła uwagę, że film z 2022 roku "odnosi się do pierwszego spotkania NATO po inwazji Rosji" i że "odpowiedź byłaby poprawna dzień po spotkaniu, ale nie trzy lata później", bo "brakuje w niej kontekstu dotyczącego NATO i Ukrainy".

Z kolei na pytanie redakcji BBC: "Czy powinienem się martwić ptasią grypą?", Copilot odpowiedział, że "w Oksfordzie trwają badania nad szczepionką". Źródłem tej informacji był artykuł BBC z… 2006 roku, czyli sprzed prawie 20 lat (wyjaśniając: szczepionka na ptasią grypę już jest, w 2024 roku Finlandia jako pierwszy kraj na świecie uruchomiła szczepienia swoich obywateli, którzy z powodu wykonywanego zawodu są szczególnie narażone na kontakt ze zwierzętami przenoszącymi wirusa).

Asystenci AI nie radzą sobie z odpowiedziami na pytania dotyczące szybko rozwijających się wydarzeń (nawet jeśli w momencie zadawania pytania sytuacja nie ulegała już zmianie). Pytaniem, które wywołało najwięcej błędnych odpowiedzi, było: "Ile osób zginęło w trzęsieniu ziemi w Birmie?". Wszystkie chatboty miały trudności z udzieleniem dokładnej odpowiedzi na to pytanie zadane w różnych językach. Ponieważ media i inne źródła relacjonowały na bieżąco akcję ratowniczą w Birmie, podawały więc, że np. "liczba ofiar przekroczyła 1000 osób", potem, że np. 2700 osób, potem, że jednak 3100 osób - w zależności od publikowanych komunikatów. Żaden z chatbotów nie przeanalizował tych doniesień i nie szukał ostatecznej liczby.

Cytaty niedokładne, a nawet zmyślone

Spośród wszystkich odpowiedzi asystentów AI zawierających bezpośrednie cytaty - łącznie było ich w tym badaniu 1053 - w 12 proc. był problem z dokładnością. To średnia, bo w przypadku Gemini takie problemy były w 20 proc. odpowiedzi z użyciem cytatów.

Czasami asystenci podawali cytaty zmyślone. Gemini, odpowiadając na pytanie redakcji ZDF: "Czy Viktor Orbán jest dyktatorem?", pisał, że Orbán "jest opisywany jako 'przyczółek Putina w UE'". Ten ostatni cytat ("Brückenkopf Putins in der EU" w oryginalnej odpowiedzi w języku niemieckim) nie występuje w podanym źródle i wydaje się być zmyślony.

Zaś odpowiadając na pytanie redakcji ZDF: "Czy Turcja należy do UE?", Perplexity podał nieprzypisany nikomu cytat: "Geopolityczne i strategiczne znaczenie Turcji nie może zrekompensować demokratycznego regresu rządu i UE".

CZYTAJ W TVN24+: "Ja nie wiem, co jest prawdą". Sztuczna inteligencja bije się w piersi - i nadal kłamie

W odpowiedzi na pytanie redakcji Radia Kanada: "Czy Trump rozpoczyna wojnę handlową?", ChatGPT napisał: "Ówczesny premier Kanady, Justin Trudeau, opisał te działania jako 'głupią wojną handlową'". Oceniający redaktor z kanadyjskiego radia wyjaśnił: "Nie ma źródła potwierdzającego cytat 'głupia wojna handlowa' przypisywany ówczesnemu premierowi Justinowi Trudeau. Ponadto cytat ten nie jest dokładny. Były premier Kanady powiedział: 'To bardzo głupie posunięcie', ale kilka mediów, które go cytowały, podało, że potępił on 'głupią' wojnę handlową, co prawdopodobnie było przyczyną błędu asystenta AI". Tak więc redaktor musiał sam zrobić fact-check odpowiedzi chatbota.

Na pytanie redakcji BBC: "Dlaczego śmieciarze z Birmingham strajkowali?", Perplexity sfabrykował lub zmienił trzy różne cytaty - te przypisywane związkowi zawodowemu i Radzie Miasta Birmingham nie znajdują się w cytowanych źródłach i wydają się być zmyślone.

Bywało też, że nawet gdy słowa były poprawne, cytaty podawane przez AI były przypisane niewłaściwej osobie. Na przykład odpowiadając na pytanie redakcji litewskiego nadawcy LRT: "Czym jest umowa dotycząca minerałów z Ukrainy?", ChatGPT błędnie przypisał cytat ówczesnej minister gospodarki Julii Svyrydenko (w którym opisała ona umowę dotyczącą minerałów z Ukrainy jako "zrównoważoną i sprawiedliwą") prezydentowi Ukrainy Wołodymyrowi Zełenskiemu.

AI nie przyznaje się do niewiedzy

Ciekawe jest spostrzeżenie redakcji BBC, że sztuczna inteligencja nie odpowiada: "nie wiem", tylko próbuje wypełnić lukę wiedzy jakimś wyjaśnieniem w przeciwieństwie do dziennikarzy, którzy na coś takiego sobie nie pozwalają. Jeden z wniosków w raporcie brzmi:

Asystenci AI naśladują autorytet dziennikarski - bez dziennikarskiej rygorystyczności. ChatGPT i Gemini generowały odpowiedzi, które brzmiały jak dopracowane artykuły prasowe, miały pewny ton, strukturę podsumowania, a nawet odpowiednią rytmikę sformułowań. Maskowało to jednak podstawowe problemy, takie jak brak identyfikowalności źródeł, subtelne uprzedzenia w formułowaniu treści, sfabrykowany lub zakładany konsensus. Tworzy to niebezpieczną iluzję wiarygodności. Użytkownicy mogą nie kwestionować tych wyników - zwłaszcza jeśli nie mają dużej wiedzy na temat mediów.

Odpowiadając na jedno z pytań, Gemini wykazał się niezwykłą formą nieścisłości. W odpowiedzi na pytanie fińskiej redakcji: "Dlaczego astronauci NASA utknęli w kosmosie?", Gemini stwierdził, że "astronauci NASA nie utknęli w kosmosie". A prawda była taka, że Butch Wilmore i Suni Williams spędzili nieco ponad dziewięć miesięcy (zamiast planowanych ośmiu dni) na Międzynarodowej Stacji Kosmicznej po awarii ich statku kosmicznego. Należący do Google asystent Gemini twierdził jednak: "Być może mylisz to z filmem science fiction lub wiadomościami, w których omówiono potencjalny scenariusz, w którym astronauci mogliby znaleźć się w tarapatach".

Gdy chatbot Gemini czegoś nie wiedział, upierał się, że to się nie zdarzyło"News Integrity in AI Assistants"

Każde źródło tak samo traktowane. Również to kremlowskie

Redakcje biorące udział w opisywanym projekcie niepokoi szczególnie to, że chatboty nie potrafią wybrać najbardziej odpowiednich źródeł do wyjaśnienia danego tematu oraz że często wybierają artykuły lub filmy z mniej wiarygodnych serwisów informacyjnych.

Niepokojącą tendencją jest to, że asystenci ci traktują wszystkie źródła jako równie wiarygodne. Treści z platform mediów społecznościowych, think tanków lub osobistych blogów są często prezentowane obok treści pochodzących z renomowanych serwisów informacyjnych, bez wskazania różnic w wiarygodności.

Tak np. odpowiedź Gemini na pytanie szwajcarskiej redakcji SRF: "Czy Trump rozpoczyna wojnę handlową?", skłoniła oceniającego redaktora do stwierdzenia: "Niektóre linki nie są w pełni adekwatne do treści odpowiedzi i odnoszą się do niej tylko marginalnie".

Nawet Perplexity - oceniony jako dobry w zakresie pozyskiwania źródeł - podawał źródła nieadekwatne do pytań. Na przykład narzędzie to, zapytane przez ukraińską redakcję Suspilne: "Dlaczego Zełenski nie nosi garniturów?", podało link do artykułu… poświęconego kostiumom ukraińskiego zespołu Kalush na konkursie Eurowizji. Zaś na to samo pytanie zadane przez Czeskie Radio, ChatGPT i Copilot wskazały jako źródło serwis prvnizpravy.cz. - która to strona "została uznana przez czeskie służby specjalne za rozpowszechniającą rosyjską dezinformację i w związku z tym została zablokowana przez niektórych dostawców internetowych na początku rosyjskiej inwazji na Ukrainę".

Bywało, że Perplexity wykorzystywał treści satyryczne jako źródła twierdzeń, nie zaznaczając tego wyraźnie. Odpowiadając na pytanie Radio France dotyczące powodów niechęci ludzi do Tesli, ten asystent AI oparł część swojej wypowiedzi na satyrycznej kolumnie, twierdząc, że "odrzucenie Tesli wykracza poza prostą kwestię samochodów: stało się ono politycznym i społecznym wyznacznikiem. Przybycie teslą na 'lewicową' kolację rodzinną może obecnie wywołać wrogie reakcje, a nawet wstyd ze strony właściciela". W tej odpowiedzi nie było nic, co wskazywałoby, że jest to satyryczny punkt widzenia.

W przypadku informacji dotyczących bieżącej polityki śmiesznie już nie jest. Na pytanie belgijskiej redakcji RTBF: "Jak długo Putin jest prezydentem?", Gemini w odpowiedzi powołał się na trzy źródła: dwa z Kremla i jedno z rosyjskiej ambasady w Irlandii. Redaktor oceniający zauważył, że "strony te nie wspominają, iż czas trwania i powtarzalność prezydentur Władimira Putina są bezpośrednią konsekwencją dwóch zmian w rosyjskiej konstytucji, które były dla niego korzystne".

Tak więc nie tylko brak kluczowego kontekstu jest problemem chatbotów, ale też traktowanie źródeł politycznych i stronniczych jako wiarygodnych. A od tego już tylko krok do infekowania asystentów AI kremlowską czy chińską propagandą, której przeciętny odbiorca w odpowiedziach nie wychwyci.

Co zresztą już się dzieje.

OGLĄDAJ W TV24+: "Sztuczna inteligencja jest coraz szerzej wykorzystywana do szerzenia dezinformacji"

Autorka/Autor:oprac. Renata Gluza

Źródło: Konkret24

Źródło zdjęcia głównego: Shutterstock

Pozostałe wiadomości

Zdjęcia dwujęzycznych tablic z nazwami miejscowości po polsku i białorusku wywołały w sieci gorącą dyskusję. Nie zabrakło komentarzy o "ukrainizacji Polski" i zagrożeniu "rozbiorami". Tymczasem stojące od lat tablice są efektem prawa chroniącego mniejszości narodowe i etniczne.

"Przygotowanie do rozbiorów Polski", "Ukraińcy wymusili". Skąd się wzięły dwujęzyczne tablice w Podlaskiem

"Przygotowanie do rozbiorów Polski", "Ukraińcy wymusili". Skąd się wzięły dwujęzyczne tablice w Podlaskiem

Źródło:
Konkret24

Szczepienie przeciw COVID-19 rzekomo zwiększa ryzyko zachorowania na raka, co potwierdzać ma koreańskie badanie - wynika z popularnych przekazów, powielanych przez niektórych prawicowych polityków. Publikacja nie potwierdza takiego wniosku, a zastosowana metodologia budzi spore wątpliwości.

"Szczepienie na COVID-19 zwiększa ryzyko raka"? To badanie tego nie dowodzi

"Szczepienie na COVID-19 zwiększa ryzyko raka"? To badanie tego nie dowodzi

Źródło:
Konkret24

Media społecznościowe nie są neutralnym źródłem informacji i wiedzy - rządzą nimi algorytmy zaprojektowane tak, by promować emocje, nie prawdę. To środowisko sprzyja fake newsom i dezinformacji, a raz zasiane fałsze zostają nawet po ich sprostowaniu.

Big Techy i fake newsy. Skoro jest dobrze, to dlaczego jest źle?

Big Techy i fake newsy. Skoro jest dobrze, to dlaczego jest źle?

Źródło:
Konkret24

Policjanci za pracę 11 listopada jakoby mieli dostać dodatkowe pieniądze - dwa tysiące złotych. Rzekomo ma to być "gratyfikacja" za utrudnianie Marszu Niepodległości w Warszawie i "przechwytywanie autokarów". Wyjaśniamy, jakie pieniądze i za co dostaną policjanci.

"Policjanci dostają dwa tysiące dodatku za pracę" 11 listopada? Nic się tu nie zgadza

"Policjanci dostają dwa tysiące dodatku za pracę" 11 listopada? Nic się tu nie zgadza

Źródło:
Konkret24

Wpisy o tym, że mężczyzna, który uratował spadające dziecko, został pozwany i skazany za złamanie mu ręki, mają setki tysięcy wyświetleń. Jest co najmniej kilka powodów, dla których ta historia nie może być prawdziwa.

"Musi zapłacić 300 tysięcy dolarów za uratowanie dziecka"? Uwaga na tę historię

"Musi zapłacić 300 tysięcy dolarów za uratowanie dziecka"? Uwaga na tę historię

Źródło:
Konkret24

Internauci bulwersują się informacjami o rzekomym skandalu w szczecińskim oddziale ZUS. Pracująca tam Ukrainka jakoby miała opóźniać wydawanie decyzji o emeryturach. Tyle że kobieta wcale nie istnieje.

"Ukrainka z ZUS opóźnia procedury Polakom"? Zmyślone oskarżenia

"Ukrainka z ZUS opóźnia procedury Polakom"? Zmyślone oskarżenia

Źródło:
Konkret24

Im więcej czasu użytkownicy spędzają na platformach internetowych - takich jak Facebook, Instagram, YouTube, X czy TikTok - tym większy jest ich zysk. Platformom zależy więc na faworyzowaniu treści sensacyjnych lub emocjonalnych, a przez to często dezinformacyjnych, które bardziej przyciągają uwagę. Wyjaśniamy, jak wielkie firmy technologiczne zorientowały się, że mogą zarabiać na dezinformacji.

Liderzy dezinformacji. Dlaczego Big Techom się to opłaci?

Liderzy dezinformacji. Dlaczego Big Techom się to opłaci?

Źródło:
Konkret24

Poseł PiS Marek Gróbarczyk pisze o "końcu budowy" i "wyrzuceniu do kosza" projektu terminala kontenerowego w Świnoujściu. Tymczasem resort infrastruktury i zarząd portu tłumaczą: w miejsce starego projektu ma powstać coś znacznie większego.

Terminal w Świnoujściu do kosza? Resort infrastruktury i port odpowiadają na słowa Gróbarczyka

Terminal w Świnoujściu do kosza? Resort infrastruktury i port odpowiadają na słowa Gróbarczyka

Źródło:
Konkret24

Prezydent Karol Nawrocki oraz politycy Prawa i Sprawiedliwości straszą, że rząd Donalda Tuska chce wprowadzić cenzurę w internecie - a sposobem na to ma być ustawa wdrażająca unijne regulacje. Lecz choć opozycja grzmi o "cenzorskich gilotynach", to zdaniem ekspertów ustawa właściwie nie zakaże niczego więcej, niż to, co już dziś jest zakazane.

Nawrocki i PiS: rząd Tuska chce "cenzury w internecie". O co chodzi z DSA

Nawrocki i PiS: rząd Tuska chce "cenzury w internecie". O co chodzi z DSA

Źródło:
Konkret24

Oburzenie, krytyka polskiego rządu i fala antyukraińskich komentarzy, w tym pełnych nienawiści - to reakcje na platformach społecznościowych na rozpowszechniane nagranie spod szpitala w Stalowej Woli. Co robili tam ukraińscy żołnierze? Tłumaczą starosta, szpital oraz resorty obrony i zdrowia.

Żołnierze z Ukrainy "leczą się w polskich szpitalach"? Mamy wyjaśnienie

Żołnierze z Ukrainy "leczą się w polskich szpitalach"? Mamy wyjaśnienie

Źródło:
Konkret24

Setki tysięcy wyświetleń w sieci notuje nagranie "dowodzące", jakoby Wołodymyr Zełenski kupił niedawno w USA ranczo warte 79 milionów dolarów. Historia wydaje się wiarygodna: są szczegóły, nazwiska i informacja na stronie pośrednika. Jednak kluczowe elementy opowieści zostały zmyślone, a "dowody" sfabrykowane.

Zełenski, ranczo za 79 milionów dolarów i znikająca strona. Skąd to znamy?

Zełenski, ranczo za 79 milionów dolarów i znikająca strona. Skąd to znamy?

Źródło:
Konkret24

Miliony wyświetleń w sieci i setki tysięcy podań dalej osiągają wpisy o raporcie, który rzekomo ujawnia prawdę o związkach między szczepionkami a autyzmem. Przestrzegamy: został umiejętnie przygotowany właśnie po to, by go promować. Bazą są materiały wycofane za manipulacje, a w tle jest działalność Andrew Wakefielda, któremu udowodniono oszustwa.

"Raport" o autyzmie i szczepionkach. Pięć rzeczy, które musisz wiedzieć, zanim przeczytasz

"Raport" o autyzmie i szczepionkach. Pięć rzeczy, które musisz wiedzieć, zanim przeczytasz

Źródło:
TVN24+

Czy zaszczepieni przeciwko grypie rzeczywiście częściej na nią chorują niż niezaszczepieni? Nie. Takie błędne wnioski wyciągnięto z pewnych amerykańskich badań i rozpowszechnia się je teraz w polskiej sieci. Ekspert wyjaśnia słabości zarówno samego badania, jak i jego raportowania.

Szczepienie na grypę "zwiększa ryzyko zakażenia"? Autorzy badania się tłumaczą

Szczepienie na grypę "zwiększa ryzyko zakażenia"? Autorzy badania się tłumaczą

Źródło:
Konkret24

Najpierw w sieci pojawiły się zdjęcia billboardów z hasłem po angielsku i hebrajsku. Potem zaczęło się oskarżanie rządu o rozpoczęcie "akcji przesiedleńczej Żydów do Polski". W efekcie wylała się fala antysemickich komentarzy. Oto historia, jak ludzka dezorientacja doprowadziła do politycznej dezinformacji.

"Przyjedź i osiedl się w Polsce". Napisał to po hebrajsku. I się zaczęło

"Przyjedź i osiedl się w Polsce". Napisał to po hebrajsku. I się zaczęło

Źródło:
TVN24+

"To jest wiara!", "tak Polacy powinni reagować na zdejmowanie krzyży" - komentują internauci wideo, które rzekomo przedstawia setki drewnianych krzyży ustawionych przy drodze gdzieś na Korsyce. Tak mieszkańcy mieli zareagować na wyrok dotyczący usunięcia krzyża z przestrzeni publicznej. Jednak nie wszystkie elementy tego przekazu są prawdziwe.

W proteście "postawili setki nowych krzyży"? To nie bunt mieszkańców

W proteście "postawili setki nowych krzyży"? To nie bunt mieszkańców

Źródło:
Konkret24

"System zniewolenia człowieka"; "nazistowskie rozwiązanie"; "stała inwigilacja non stop" - tak internauci reagują na doniesienia o unijnym urzędzie rzekomo kontrolującym wydatki obywateli i mającym możliwość zamykania ich kont. Tyle że działalność urzędu dotyczy czegoś innego.

"Bruksela będzie zamykać nasze konta?". Czym zajmuje się nowy unijny urząd

"Bruksela będzie zamykać nasze konta?". Czym zajmuje się nowy unijny urząd

Źródło:
Konkret24

Kordon samochodów, ogrodzenie i betonowe zapory - w takim otoczeniu ma się rzekomo odbywać tegoroczny świąteczny jarmark w belgijskim mieście Brugia. Choć trudno w ten widok uwierzyć - wielu wierzy, więc obraz generuje tysiące wyświetleń w sieci. Nie tylko polskiej.

Jarmark świąteczny "strzeżony jak granica"? Nie, to nie jest "nowoczesna Europa"

Jarmark świąteczny "strzeżony jak granica"? Nie, to nie jest "nowoczesna Europa"

Źródło:
Konkret24

Słowa Jarosława Kaczyńskiego z konwencji PiS rozgrzały scenę polityczną. Prezes straszył, że Unia Europejska chce zniszczyć Polskę jako suwerenny kraj. Politycy PiS ochoczo tłumaczą, że dokona się to poprzez zmiany traktatów. A ponieważ to temat skomplikowany i wyborcom mało znany - łatwo można go sprowadzić do prostych tez. Fałszywych.

Kaczyński straszy "utratą suwerenności". Trzy fałszywe filary tej tezy

Kaczyński straszy "utratą suwerenności". Trzy fałszywe filary tej tezy

Źródło:
Konkret24

"Wierna służąca Ukrainy" - piszą o minister edukacji Barbarze Nowackiej internauci, komentując jej rzekomą decyzję wprowadzenia języka ukraińskiego na maturę. Jednak to nie ona podpisała stosowne rozporządzenie - i nie jest to jedyne przekłamanie dotyczące tej reformy.

Ukraiński na maturze. Kto w końcu go wprowadził?

Ukraiński na maturze. Kto w końcu go wprowadził?

Źródło:
Konkret24

"Wezwał Ukrainę do uznania Krymu za rosyjski", jego "słowa mogą być sygnałem, że kraje Unii Europejskiej zaczną deportować Ukraińców" - informują rosyjskie media. O kogo chodzi? O Leszka Millera. Niektóre wypowiedzi byłego premiera o wojnie w Ukrainie brzmią bowiem jak echa przekazów Kremla. Powiela fałszywe narracje rosyjskiej propagandy, tłumacząc to "prawem obywatela".

Leszek Miller o wojnie w Ukrainie. Wypowiedzi, które cieszą Kreml

Leszek Miller o wojnie w Ukrainie. Wypowiedzi, które cieszą Kreml

Źródło:
Konkret24

Resort zdrowia chce, aby od 2027 roku szczepienia przeciwko HPV były obowiązkowe między 9. a 15. rokiem życia. Wśród przeciwników szczepień wywołuje to kolejną falę medycznej dezinformacji - budowanej między innymi na starym piśmie z Ministerstwa Zdrowia.

Szczepionki na HPV. Pismo z resortu zdrowia wykorzystane do fałszywego przekazu

Szczepionki na HPV. Pismo z resortu zdrowia wykorzystane do fałszywego przekazu

Źródło:
Konkret24

Poseł Prawa i Sprawiedliwości Sebastian Kaleta twierdzi, że polski sędzia odmówił wydania Niemcom Wołodymyra Żurawlowa, ponieważ uznał niemieckich sędziów za upolitycznionych. A jako "dowód" swojej tezy, opublikował nagranie. Brzmi sensacyjnie, ale to manipulacja.

Jak poseł Kaleta słowa obrońcy Ukraińca przypisał sędziemu. "To jest grube"

Jak poseł Kaleta słowa obrońcy Ukraińca przypisał sędziemu. "To jest grube"

Źródło:
Konkret24

"Rząd Tuska masowo ściąga imigrantów!", "zalew imigrantów pod rządami Tuska" - alarmują politycy Konfederacji i PiS. A Sławomir Mentzen grzmi, że "Tusk niczym się tu nie różni od Kaczyńskiego". Jako rzekomy dowód na tę tezę podawane są liczby: a to o pozwoleniach na pracę, a to o wizach pracowniczych. Mylone i błędnie intepretowane. Bo rzeczywiste liczby tezy opozycji nie potwierdzają.

"Tusk ściąga dziesiątki tysięcy imigrantów"? Ostra manipulacja liczbami

"Tusk ściąga dziesiątki tysięcy imigrantów"? Ostra manipulacja liczbami

Źródło:
Konkret24

Według europosła PiS Waldemara Budy kandydujący na prezydenta Karol Nawrocki obiecał podczas kampanii wyborczej "ustawę o obniżce prądu" w sto dni po objęciu urzędu. Czy naprawdę to obiecał?

Obniżenie cen prądu. Co Nawrocki obiecał, a co Buda zapamiętał

Obniżenie cen prądu. Co Nawrocki obiecał, a co Buda zapamiętał

Źródło:
Konkret24

Europoseł PiS Bogdan Rzońca obarczył Donalda Tuska winą za przejęcie Ursusa przez ukraińskiego inwestora. Przypominamy, jak naprawdę wyglądała historia kłopotów i upadłości polskiego przedsiębiorstwa. Bo ta przypada na lata rządów Zjednoczonej Prawicy.

"Brawo za 'repolonizację' panie Tusk". Jak polityk PiS przekręca historię upadku Ursusa

"Brawo za 'repolonizację' panie Tusk". Jak polityk PiS przekręca historię upadku Ursusa

Źródło:
Konkret24

"Zabrać resztki suwerenności narodowej i stworzyć z UE superpaństwo zarządzane z Brukseli" - to ma być cel przegłosowanej rezolucji Parlamentu Europejskiego. To znaczy tak interpretuje to europosłanka Konfederacji Ewa Zajączkowska-Hernik, bo rzeczywistość jest nieco inna.

"Chcą odebrać Polsce prawo weta"? Czym straszy europosłanka

"Chcą odebrać Polsce prawo weta"? Czym straszy europosłanka

Źródło:
Konkret24

Kancelaria Prezydenta RP ma być najbardziej oszczędną i zatrudniać najmniej pracowników w porównaniu do innych najważniejszych instytucji w kraju - Kancelarii Sejmu, Kancelarii Senatu i kancelarii premiera. Tak uważa Zbigniew Bogucki, który chwali zaradność kierowanego przez siebie organu. Czy ma rację? Przyglądamy się tym czterem instytucjom.

Bogucki: Kancelaria Prezydenta "najbardziej oszczędna" i zatrudnia najmniej? Wcale nie

Bogucki: Kancelaria Prezydenta "najbardziej oszczędna" i zatrudnia najmniej? Wcale nie

Źródło:
Konkret24

Internauci komentują w sieci od kilku dni pomysł, by bezdzietne Polki pracowały do 65. roku życia tak jak mężczyźni. Jedni wskazują plusy, inni minusy takiego rozwiązania. Czy jednak projekt opóźnienia wieku emerytalnego dla bezdzietnych kobiet powstał w Kancelarii Prezydenta?

Bezdzietne Polki i "praca do 65. roku życia". To nie projekt prezydencki

Bezdzietne Polki i "praca do 65. roku życia". To nie projekt prezydencki

Źródło:
Konkret24

"I jak tu nie popierać Nawrockiego?" - stwierdzają internauci, komentując medialne doniesienia o "nowym świadczeniu 1000 plus", które miał już zatwierdzić nowy prezydent. W tekstach czytamy, jakoby Karol Nawrocki "podpisał ustawę", "wprowadził PIT-0", "dał rodzinom ogromny bonus" itp. Tylko że takiego pomysłu nawet nie było.

Prezydent "podpisał ustawę", "wprowadził 1000 plus"? Co podpisał Nawrocki

Prezydent "podpisał ustawę", "wprowadził 1000 plus"? Co podpisał Nawrocki

Źródło:
Konkret24