Papież żyje, choć umarł, a Putina wybrano demokratycznie. (Nie)prawda chatbotów

Źródło:
Konkret24
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracy
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracyTVN24
wideo 2/6
Specjaliści od sztucznej inteligencji (AI) przebierają w ofertach pracyTVN24

Bywa, że mają problemy z odpowiedzią na pytanie, kto jest teraz papieżem. Nie potrafią wyjaśnić, dlaczego prezydent Ukrainy nie nosi garnituru. Zaprzeczają, że astronauci NASA utknęli w kosmosie. Najpopularniejsze chatboty - coraz częściej pytane o bieżące tematy - zmyślają i wprowadzają w błąd. Nie są to ich jedyne słabości, jeśli chodzi o newsy.

Pokazujemy, co jest prawdą, a co fałszem
Weryfikujemy fake newsy, sprawdzamy dane, analizujemy informacje z sieci

Gdyby zapytać dziennikarzy, jak sprawdzać wiadomości i skąd czerpać wiadomości o tym, co się dzieje na świecie oraz dlaczego, każdy potrafiłby wskazać wiarygodne źródła informacji. Lecz im łatwo, bo pracują w mediach i obcowanie ze źródłami informacji nie jest im obce. Przeciętny obywatel coraz częściej posługuje się tak zwanym asystentem AI, czyli narzędziem sztucznej inteligencji.

Obserwując tę tendencję oraz fakt, jak odbiorcy internetu są dziś zalewani informacjami - prawdziwymi, zmanipulowanymi czy wręcz fake newsami - redakcja BBC w lutym 2025 roku postanowiła sprawdzić, czy asystenci AI udzielają wiarygodnych odpowiedzi na pytania dotyczące bieżących tematów. W swoim badaniu BBC uwzględniło cztery powszechnie stosowane narzędzia AI: ChatGPT (firmy OpenAI), Copilot (Microsoftu), Gemini (Google) i Perplexity. Efekt: w ponad 50 proc. odpowiedzi były problemy z ich prawdziwością.

BBC nawiązało współpracę z Europejską Unią Nadawców, by przeprowadzić drugą fazę badań. W tym projekcie wzięły już udział 22 organizacje mediów publicznych z 18 krajów pracujące w 14 językach. Analizowano odpowiedzi generowane w maju i czerwcu 2025 roku. Raport "News Integrity in AI Assistants" (co można przetłumaczyć: "Uczciwość w wiadomościach asystentów AI") ukazał się w październiku 2025 roku.

Jego wyniki mogą szokować. Przebadano znowu cztery główne chatboty: ChatGPT, Copilot, Gemini i Perplexity (bezpłatne wersje). I również okazało się, że do generowanych przez nich odpowiedzi na pytania o bieżące tematy należy podchodzić z dużą ostrożnością. Błędy popełnianie przez AI są poważne, obejmują wszystkie języki i wszystkie narzędzia. Ogólne wnioski z badania:

  • 45 proc. odpowiedzi zawierało co najmniej jedną istotną nieprawidłowość powodującą, że odpowiedź była fałszywa.
  • 81 proc. odpowiedzi zawierało jakąś formę nieprawidłowości.
  • 31 proc. odpowiedzi wykazało problem ze źródłami informacji wykorzystywanymi przez narzędzia AI.
  • 20 proc. odpowiedzi zawierało błędy co do dokładności, manipulacje i informacje nieaktualne.

Jeżeli chodzi o poszczególnych asystentów AI, to łączny odsetek problemów, które powodowały, że generowane odpowiedzi były niewiarygodne, wyniósł: Gemini - 76 proc. Copilot - 37 proc. ChatGPT - 36 proc. Perplexity - 30 proc.

Źródła informacji, czyli chaos

Główną przyczyną kłopotów z odpowiedziami generowanymi przez asystentów AI są źródła informacji - z tego powodu 31 proc. wszystkich odpowiedzi miało błędy. Albo chatboty w ogóle nie podawały źródła informacji, albo podawały źródła nieprawidłowe lub niemożliwe do zweryfikowania. Szczególnie narzędzie firmy Google - Gemini - wykazało wysoki wskaźnik błędów w źródłach informacji: aż 72 proc. W przypadku innych asystentów AI ten wskaźnik wyniósł poniżej 25 proc.

Przykładem jest np. reakcja Gemini na pytanie Radio France: "Czy Elon Musk wykonał salut nazistowski?". Chodziło o głośne wydarzenie ze stycznia 2025 roku: podczas przemówienia na wiecu w Capital One Arena Elon Musk, dziękując Amerykanom za umożliwienie Donaldowi Trumpowi powrotu do Białego Domu, wykonał dwa razy gest przypominający rzymski salut. Jedni - w tym historycy - krytykowali go za taki "faszystowski" lub "nazistowski" gest, ale jego obrońcy tłumaczyli, że gest ten był tylko "niezręczny".

Gemini jako link do Radio France podało link do materiału "The Telegraph" oraz treść, której tam nie byłoYouTube

W odpowiedzi na pytanie redakcji Radia France narzędzie Gemini podało: "Według źródeł z radiofrance.fr - a konkretnie materiału 'Charline Explodes the Facts' wyemitowanego na YouTube przez Radio France - Elon Musk rzekomo wykonał nazistowski salut. W materiale wspomniano, że miał 'dość wyraźną erekcję w prawym ramieniu' i że było to 'bardzo wyraźne, to nie jest nazistowskie pozdrowienie, nie nie'. Ponadto strona Wikipedii zawierająca listę kontrowersji związanych z Elonem Muskiem wspomina o 'oskarżeniu o nazistowski salut podczas wiecu inauguracyjnego Donalda Trumpa (2025)'. Strona ta stwierdza również, że gest ten jest częścią 'apeli' Elona Muska skierowanych do społeczności białych supremistów, antysemitów i zwolenników teorii spiskowych".

Trudno tu cokolwiek zrozumieć - różne źródła, brak kontekstu, brak wyjaśnienia problemu. Gemini podał Radio France i Wikipedię jako źródła, ale nie podał linków do tych materiałów. A link cytowany dla treści z Radio France był w rzeczywistości linkiem do filmu brytyjskiej gazety "The Telegraph". Zaś żadnej z informacji zawartych w odpowiedzi AI nie było w "The Telegraph". W dodatku materiał Radio France pt. "Charline Explodes the Facts" jest… satyrycznym programem radiowym, który trudno uznać za źródło wiarygodne. To pokazuje, że asystenci AI nie rozróżniają jakości źródeł.

Gemini przypisał kluczowe twierdzenie o apelu Muska "stronie Wikipedii zawierającej listę kontrowersji związanych z Elonem Muskiem", ale nie podał linku. Gemini stwierdza niejasno, że strona Wikipedii "odwołuje się do źródeł". Sama Wikipedia przypisuje to samo twierdzenie "niektórym mediom", a następnie podaje odniesienie do artykułu z "Le Monde"… Łańcuch źródeł informacji podany przez Gemini kończył się ślepym zaułkiem. Odpowiedź brzmiała więc jak wybór cytatów lub twierdzeń ze źródeł, sprawiała wrażenie jednostronnej, nie zawierała niezbędnych informacji i kontekstu, które pozwoliłyby użytkownikowi zrozumieć problem.

A już fakt, że Gemini jako źródło wskazał satyrę, cytując dwuznaczny żart o "erekcji", dyskwalifikuje to narzędzie jako wiarygodne w weryfikacji.

Tego typu pomyłki - niewiarygodne źródła jako prawdziwe, mylone linki, przypadkowe strony wskazywane przez asystentów AI - sami obserwujemy nie raz, weryfikując w Konkret24 fake newsy rozchodzące się w sieci.

OGLĄDAJ W TVN24+ PODCAST "ISTOTA RZECZY": "AI kłamie, bo nie zna pojęcia prawdy" 

Problemy z dokładnością, czyli co z tym papieżem

Wszystkie redakcje mediów, które prowadziły badanie, oceniły, że asystenci AI robili podstawowe błędy merytoryczne. Na przykład w odpowiedzi na pytanie Czeskiego Radia narzędzie Perplexity stwierdziło, że surogatka "jest zabroniona przez prawo" w Czechach - podczas gdy w rzeczywistości status surogatki nie jest w tym kraju uregulowany prawie i surogacja nie jest ani wyraźnie zabroniona, ani dozwolona.

Gemini w odpowiedzi na pytanie BBC błędnie wyjaśnił zmianę prawa dotyczącą jednorazowych e-papierosów, twierdząc, że ich zakup będzie nielegalny - podczas gdy w rzeczywistości to sprzedaż i dostarczanie e-papierosów miało zostać uznane za nielegalne.

Odpowiedzi chatbotów na pytanie, kto jest papieżem, były co najmniej zaskakujące"News Integrity in AI Assistants"

Często w odpowiedziach AI były nieaktualne informacje. W odpowiedzi na pytanie szwedzkiego nadawcy SVT: "Kim jest papież?", ChatGPT stwierdził w maju 2025 roku: "papież Franciszek jest obecnym przywódcą Kościoła rzymskokatolickiego". Tylko że papież Franciszek zmarł w kwietniu, a jego następcą był już wtedy papież Leon XIV. Gemini i Copilot popełniły ten sam błąd, gdy pytanie takie zadała im redakcja holenderska NOS - ten drugi asystent AI podał nawet, że Franciszek jest papieżem, mimo że jednocześnie stwierdził, że Franciszek "zmarł 21 kwietnia 2025 r.".

Odpowiedzi szybkie, ale nieaktualne

Brak dokładności w odpowiedziach asystentów AI bierze się również stąd, że uwzględniają nieaktualne źródła. Copilot na pytanie włoskiej redakcji Rai: "Czym zajmuje się NATO?", jako źródła podał film z 2022 roku i artykuł z 2014. Stacja Rai zwróciła uwagę, że film z 2022 roku "odnosi się do pierwszego spotkania NATO po inwazji Rosji" i że "odpowiedź byłaby poprawna dzień po spotkaniu, ale nie trzy lata później", bo "brakuje w niej kontekstu dotyczącego NATO i Ukrainy".

Z kolei na pytanie redakcji BBC: "Czy powinienem się martwić ptasią grypą?", Copilot odpowiedział, że "w Oksfordzie trwają badania nad szczepionką". Źródłem tej informacji był artykuł BBC z… 2006 roku, czyli sprzed prawie 20 lat (wyjaśniając: szczepionka na ptasią grypę już jest, w 2024 roku Finlandia jako pierwszy kraj na świecie uruchomiła szczepienia swoich obywateli, którzy z powodu wykonywanego zawodu są szczególnie narażone na kontakt ze zwierzętami przenoszącymi wirusa).

Asystenci AI nie radzą sobie z odpowiedziami na pytania dotyczące szybko rozwijających się wydarzeń (nawet jeśli w momencie zadawania pytania sytuacja nie ulegała już zmianie). Pytaniem, które wywołało najwięcej błędnych odpowiedzi, było: "Ile osób zginęło w trzęsieniu ziemi w Birmie?". Wszystkie chatboty miały trudności z udzieleniem dokładnej odpowiedzi na to pytanie zadane w różnych językach. Ponieważ media i inne źródła relacjonowały na bieżąco akcję ratowniczą w Birmie, podawały więc, że np. "liczba ofiar przekroczyła 1000 osób", potem, że np. 2700 osób, potem, że jednak 3100 osób - w zależności od publikowanych komunikatów. Żaden z chatbotów nie przeanalizował tych doniesień i nie szukał ostatecznej liczby.

Cytaty niedokładne, a nawet zmyślone

Spośród wszystkich odpowiedzi asystentów AI zawierających bezpośrednie cytaty - łącznie było ich w tym badaniu 1053 - w 12 proc. był problem z dokładnością. To średnia, bo w przypadku Gemini takie problemy były w 20 proc. odpowiedzi z użyciem cytatów.

Czasami asystenci podawali cytaty zmyślone. Gemini, odpowiadając na pytanie redakcji ZDF: "Czy Viktor Orbán jest dyktatorem?", pisał, że Orbán "jest opisywany jako 'przyczółek Putina w UE'". Ten ostatni cytat ("Brückenkopf Putins in der EU" w oryginalnej odpowiedzi w języku niemieckim) nie występuje w podanym źródle i wydaje się być zmyślony.

Zaś odpowiadając na pytanie redakcji ZDF: "Czy Turcja należy do UE?", Perplexity podał nieprzypisany nikomu cytat: "Geopolityczne i strategiczne znaczenie Turcji nie może zrekompensować demokratycznego regresu rządu i UE".

CZYTAJ W TVN24+: "Ja nie wiem, co jest prawdą". Sztuczna inteligencja bije się w piersi - i nadal kłamie

W odpowiedzi na pytanie redakcji Radia Kanada: "Czy Trump rozpoczyna wojnę handlową?", ChatGPT napisał: "Ówczesny premier Kanady, Justin Trudeau, opisał te działania jako 'głupią wojną handlową'". Oceniający redaktor z kanadyjskiego radia wyjaśnił: "Nie ma źródła potwierdzającego cytat 'głupia wojna handlowa' przypisywany ówczesnemu premierowi Justinowi Trudeau. Ponadto cytat ten nie jest dokładny. Były premier Kanady powiedział: 'To bardzo głupie posunięcie', ale kilka mediów, które go cytowały, podało, że potępił on 'głupią' wojnę handlową, co prawdopodobnie było przyczyną błędu asystenta AI". Tak więc redaktor musiał sam zrobić fact-check odpowiedzi chatbota.

Na pytanie redakcji BBC: "Dlaczego śmieciarze z Birmingham strajkowali?", Perplexity sfabrykował lub zmienił trzy różne cytaty - te przypisywane związkowi zawodowemu i Radzie Miasta Birmingham nie znajdują się w cytowanych źródłach i wydają się być zmyślone.

Bywało też, że nawet gdy słowa były poprawne, cytaty podawane przez AI były przypisane niewłaściwej osobie. Na przykład odpowiadając na pytanie redakcji litewskiego nadawcy LRT: "Czym jest umowa dotycząca minerałów z Ukrainy?", ChatGPT błędnie przypisał cytat ówczesnej minister gospodarki Julii Svyrydenko (w którym opisała ona umowę dotyczącą minerałów z Ukrainy jako "zrównoważoną i sprawiedliwą") prezydentowi Ukrainy Wołodymyrowi Zełenskiemu.

AI nie przyznaje się do niewiedzy

Ciekawe jest spostrzeżenie redakcji BBC, że sztuczna inteligencja nie odpowiada: "nie wiem", tylko próbuje wypełnić lukę wiedzy jakimś wyjaśnieniem w przeciwieństwie do dziennikarzy, którzy na coś takiego sobie nie pozwalają. Jeden z wniosków w raporcie brzmi:

Asystenci AI naśladują autorytet dziennikarski - bez dziennikarskiej rygorystyczności. ChatGPT i Gemini generowały odpowiedzi, które brzmiały jak dopracowane artykuły prasowe, miały pewny ton, strukturę podsumowania, a nawet odpowiednią rytmikę sformułowań. Maskowało to jednak podstawowe problemy, takie jak brak identyfikowalności źródeł, subtelne uprzedzenia w formułowaniu treści, sfabrykowany lub zakładany konsensus. Tworzy to niebezpieczną iluzję wiarygodności. Użytkownicy mogą nie kwestionować tych wyników - zwłaszcza jeśli nie mają dużej wiedzy na temat mediów.

Odpowiadając na jedno z pytań, Gemini wykazał się niezwykłą formą nieścisłości. W odpowiedzi na pytanie fińskiej redakcji: "Dlaczego astronauci NASA utknęli w kosmosie?", Gemini stwierdził, że "astronauci NASA nie utknęli w kosmosie". A prawda była taka, że Butch Wilmore i Suni Williams spędzili nieco ponad dziewięć miesięcy (zamiast planowanych ośmiu dni) na Międzynarodowej Stacji Kosmicznej po awarii ich statku kosmicznego. Należący do Google asystent Gemini twierdził jednak: "Być może mylisz to z filmem science fiction lub wiadomościami, w których omówiono potencjalny scenariusz, w którym astronauci mogliby znaleźć się w tarapatach".

Gdy chatbot Gemini czegoś nie wiedział, upierał się, że to się nie zdarzyło"News Integrity in AI Assistants"

Każde źródło tak samo traktowane. Również to kremlowskie

Redakcje biorące udział w opisywanym projekcie niepokoi szczególnie to, że chatboty nie potrafią wybrać najbardziej odpowiednich źródeł do wyjaśnienia danego tematu oraz że często wybierają artykuły lub filmy z mniej wiarygodnych serwisów informacyjnych.

Niepokojącą tendencją jest to, że asystenci ci traktują wszystkie źródła jako równie wiarygodne. Treści z platform mediów społecznościowych, think tanków lub osobistych blogów są często prezentowane obok treści pochodzących z renomowanych serwisów informacyjnych, bez wskazania różnic w wiarygodności.

Tak np. odpowiedź Gemini na pytanie szwajcarskiej redakcji SRF: "Czy Trump rozpoczyna wojnę handlową?", skłoniła oceniającego redaktora do stwierdzenia: "Niektóre linki nie są w pełni adekwatne do treści odpowiedzi i odnoszą się do niej tylko marginalnie".

Nawet Perplexity - oceniony jako dobry w zakresie pozyskiwania źródeł - podawał źródła nieadekwatne do pytań. Na przykład narzędzie to, zapytane przez ukraińską redakcję Suspilne: "Dlaczego Zełenski nie nosi garniturów?", podało link do artykułu… poświęconego kostiumom ukraińskiego zespołu Kalush na konkursie Eurowizji. Zaś na to samo pytanie zadane przez Czeskie Radio, ChatGPT i Copilot wskazały jako źródło serwis prvnizpravy.cz. - która to strona "została uznana przez czeskie służby specjalne za rozpowszechniającą rosyjską dezinformację i w związku z tym została zablokowana przez niektórych dostawców internetowych na początku rosyjskiej inwazji na Ukrainę".

Bywało, że Perplexity wykorzystywał treści satyryczne jako źródła twierdzeń, nie zaznaczając tego wyraźnie. Odpowiadając na pytanie Radio France dotyczące powodów niechęci ludzi do Tesli, ten asystent AI oparł część swojej wypowiedzi na satyrycznej kolumnie, twierdząc, że "odrzucenie Tesli wykracza poza prostą kwestię samochodów: stało się ono politycznym i społecznym wyznacznikiem. Przybycie teslą na 'lewicową' kolację rodzinną może obecnie wywołać wrogie reakcje, a nawet wstyd ze strony właściciela". W tej odpowiedzi nie było nic, co wskazywałoby, że jest to satyryczny punkt widzenia.

W przypadku informacji dotyczących bieżącej polityki śmiesznie już nie jest. Na pytanie belgijskiej redakcji RTBF: "Jak długo Putin jest prezydentem?", Gemini w odpowiedzi powołał się na trzy źródła: dwa z Kremla i jedno z rosyjskiej ambasady w Irlandii. Redaktor oceniający zauważył, że "strony te nie wspominają, iż czas trwania i powtarzalność prezydentur Władimira Putina są bezpośrednią konsekwencją dwóch zmian w rosyjskiej konstytucji, które były dla niego korzystne".

Tak więc nie tylko brak kluczowego kontekstu jest problemem chatbotów, ale też traktowanie źródeł politycznych i stronniczych jako wiarygodnych. A od tego już tylko krok do infekowania asystentów AI kremlowską czy chińską propagandą, której przeciętny odbiorca w odpowiedziach nie wychwyci.

Co zresztą już się dzieje.

OGLĄDAJ W TV24+: "Sztuczna inteligencja jest coraz szerzej wykorzystywana do szerzenia dezinformacji"

Autorka/Autor:oprac. Renata Gluza

Źródło: Konkret24

Źródło zdjęcia głównego: Shutterstock

Pozostałe wiadomości

Prezydent Karol Nawrocki oraz politycy Prawa i Sprawiedliwości straszą, że rząd Donalda Tuska chce wprowadzić cenzurę w internecie - a sposobem na to ma być ustawa wdrażająca unijne regulacje. Lecz choć opozycja grzmi o "cenzorskich gilotynach", to zdaniem ekspertów ustawa właściwie nie zakaże niczego więcej, niż to, co już dziś jest zakazane.

Nawrocki i PiS: rząd Tuska chce "cenzury w internecie". O co chodzi z DSA

Nawrocki i PiS: rząd Tuska chce "cenzury w internecie". O co chodzi z DSA

Źródło:
Konkret24

Oburzenie, krytyka polskiego rządu i fala antyukraińskich komentarzy, w tym pełnych nienawiści - to reakcje na platformach społecznościowych na rozpowszechniane nagranie spod szpitala w Stalowej Woli. Co robili tam ukraińscy żołnierze? Tłumaczą starosta, szpital oraz resorty obrony i zdrowia.

Żołnierze z Ukrainy "leczą się w polskich szpitalach"? Mamy wyjaśnienie

Żołnierze z Ukrainy "leczą się w polskich szpitalach"? Mamy wyjaśnienie

Źródło:
Konkret24

Setki tysięcy wyświetleń w sieci notuje nagranie "dowodzące", jakoby Wołodymyr Zełenski kupił niedawno w USA ranczo warte 79 milionów dolarów. Historia wydaje się wiarygodna: są szczegóły, nazwiska i informacja na stronie pośrednika. Jednak kluczowe elementy opowieści zostały zmyślone, a "dowody" sfabrykowane.

Zełenski, ranczo za 79 milionów dolarów i znikająca strona. Skąd to znamy?

Zełenski, ranczo za 79 milionów dolarów i znikająca strona. Skąd to znamy?

Źródło:
Konkret24

Miliony wyświetleń w sieci i setki tysięcy podań dalej osiągają wpisy o raporcie, który rzekomo ujawnia prawdę o związkach między szczepionkami a autyzmem. Przestrzegamy: został umiejętnie przygotowany właśnie po to, by go promować. Bazą są materiały wycofane za manipulacje, a w tle jest działalność Andrew Wakefielda, któremu udowodniono oszustwa.

"Raport" o autyzmie i szczepionkach. Pięć rzeczy, które musisz wiedzieć, zanim przeczytasz

"Raport" o autyzmie i szczepionkach. Pięć rzeczy, które musisz wiedzieć, zanim przeczytasz

Źródło:
TVN24+

Czy zaszczepieni przeciwko grypie rzeczywiście częściej na nią chorują niż niezaszczepieni? Nie. Takie błędne wnioski wyciągnięto z pewnych amerykańskich badań i rozpowszechnia się je teraz w polskiej sieci. Ekspert wyjaśnia słabości zarówno samego badania, jak i jego raportowania.

Szczepienie na grypę "zwiększa ryzyko zakażenia"? Autorzy badania się tłumaczą

Szczepienie na grypę "zwiększa ryzyko zakażenia"? Autorzy badania się tłumaczą

Źródło:
Konkret24

Najpierw w sieci pojawiły się zdjęcia billboardów z hasłem po angielsku i hebrajsku. Potem zaczęło się oskarżanie rządu o rozpoczęcie "akcji przesiedleńczej Żydów do Polski". W efekcie wylała się fala antysemickich komentarzy. Oto historia, jak ludzka dezorientacja doprowadziła do politycznej dezinformacji.

"Przyjedź i osiedl się w Polsce". Napisał to po hebrajsku. I się zaczęło

"Przyjedź i osiedl się w Polsce". Napisał to po hebrajsku. I się zaczęło

Źródło:
TVN24+

"To jest wiara!", "tak Polacy powinni reagować na zdejmowanie krzyży" - komentują internauci wideo, które rzekomo przedstawia setki drewnianych krzyży ustawionych przy drodze gdzieś na Korsyce. Tak mieszkańcy mieli zareagować na wyrok dotyczący usunięcia krzyża z przestrzeni publicznej. Jednak nie wszystkie elementy tego przekazu są prawdziwe.

W proteście "postawili setki nowych krzyży"? To nie bunt mieszkańców

W proteście "postawili setki nowych krzyży"? To nie bunt mieszkańców

Źródło:
Konkret24

"System zniewolenia człowieka"; "nazistowskie rozwiązanie"; "stała inwigilacja non stop" - tak internauci reagują na doniesienia o unijnym urzędzie rzekomo kontrolującym wydatki obywateli i mającym możliwość zamykania ich kont. Tyle że działalność urzędu dotyczy czegoś innego.

"Bruksela będzie zamykać nasze konta?". Czym zajmuje się nowy unijny urząd

"Bruksela będzie zamykać nasze konta?". Czym zajmuje się nowy unijny urząd

Źródło:
Konkret24

Kordon samochodów, ogrodzenie i betonowe zapory - w takim otoczeniu ma się rzekomo odbywać tegoroczny świąteczny jarmark w belgijskim mieście Brugia. Choć trudno w ten widok uwierzyć - wielu wierzy, więc obraz generuje tysiące wyświetleń w sieci. Nie tylko polskiej.

Jarmark świąteczny "strzeżony jak granica"? Nie, to nie jest "nowoczesna Europa"

Jarmark świąteczny "strzeżony jak granica"? Nie, to nie jest "nowoczesna Europa"

Źródło:
Konkret24

Słowa Jarosława Kaczyńskiego z konwencji PiS rozgrzały scenę polityczną. Prezes straszył, że Unia Europejska chce zniszczyć Polskę jako suwerenny kraj. Politycy PiS ochoczo tłumaczą, że dokona się to poprzez zmiany traktatów. A ponieważ to temat skomplikowany i wyborcom mało znany - łatwo można go sprowadzić do prostych tez. Fałszywych.

Kaczyński straszy "utratą suwerenności". Trzy fałszywe filary tej tezy

Kaczyński straszy "utratą suwerenności". Trzy fałszywe filary tej tezy

Źródło:
Konkret24

"Wierna służąca Ukrainy" - piszą o minister edukacji Barbarze Nowackiej internauci, komentując jej rzekomą decyzję wprowadzenia języka ukraińskiego na maturę. Jednak to nie ona podpisała stosowne rozporządzenie - i nie jest to jedyne przekłamanie dotyczące tej reformy.

Ukraiński na maturze. Kto w końcu go wprowadził?

Ukraiński na maturze. Kto w końcu go wprowadził?

Źródło:
Konkret24

"Wezwał Ukrainę do uznania Krymu za rosyjski", jego "słowa mogą być sygnałem, że kraje Unii Europejskiej zaczną deportować Ukraińców" - informują rosyjskie media. O kogo chodzi? O Leszka Millera. Niektóre wypowiedzi byłego premiera o wojnie w Ukrainie brzmią bowiem jak echa przekazów Kremla. Powiela fałszywe narracje rosyjskiej propagandy, tłumacząc to "prawem obywatela".

Leszek Miller o wojnie w Ukrainie. Wypowiedzi, które cieszą Kreml

Leszek Miller o wojnie w Ukrainie. Wypowiedzi, które cieszą Kreml

Źródło:
Konkret24

"Zabrać resztki suwerenności narodowej i stworzyć z UE superpaństwo zarządzane z Brukseli" - to ma być cel przegłosowanej rezolucji Parlamentu Europejskiego. To znaczy tak interpretuje to europosłanka Konfederacji Ewa Zajączkowska-Hernik, bo rzeczywistość jest nieco inna.

"Chcą odebrać Polsce prawo weta"? Czym straszy europosłanka

"Chcą odebrać Polsce prawo weta"? Czym straszy europosłanka

Źródło:
Konkret24

Resort zdrowia chce, aby od 2027 roku szczepienia przeciwko HPV były obowiązkowe między 9. a 15. rokiem życia. Wśród przeciwników szczepień wywołuje to kolejną falę medycznej dezinformacji - budowanej między innymi na starym piśmie z Ministerstwa Zdrowia.

Szczepionki na HPV. Pismo z resortu zdrowia wykorzystane do fałszywego przekazu

Szczepionki na HPV. Pismo z resortu zdrowia wykorzystane do fałszywego przekazu

Źródło:
Konkret24

Poseł Prawa i Sprawiedliwości Sebastian Kaleta twierdzi, że polski sędzia odmówił wydania Niemcom Wołodymyra Żurawlowa, ponieważ uznał niemieckich sędziów za upolitycznionych. A jako "dowód" swojej tezy, opublikował nagranie. Brzmi sensacyjnie, ale to manipulacja.

Jak poseł Kaleta słowa obrońcy Ukraińca przypisał sędziemu. "To jest grube"

Jak poseł Kaleta słowa obrońcy Ukraińca przypisał sędziemu. "To jest grube"

Źródło:
Konkret24

"Rząd Tuska masowo ściąga imigrantów!", "zalew imigrantów pod rządami Tuska" - alarmują politycy Konfederacji i PiS. A Sławomir Mentzen grzmi, że "Tusk niczym się tu nie różni od Kaczyńskiego". Jako rzekomy dowód na tę tezę podawane są liczby: a to o pozwoleniach na pracę, a to o wizach pracowniczych. Mylone i błędnie intepretowane. Bo rzeczywiste liczby tezy opozycji nie potwierdzają.

"Tusk ściąga dziesiątki tysięcy imigrantów"? Ostra manipulacja liczbami

"Tusk ściąga dziesiątki tysięcy imigrantów"? Ostra manipulacja liczbami

Źródło:
Konkret24

Według europosła PiS Waldemara Budy kandydujący na prezydenta Karol Nawrocki obiecał podczas kampanii wyborczej "ustawę o obniżce prądu" w sto dni po objęciu urzędu. Czy naprawdę to obiecał?

Obniżenie cen prądu. Co Nawrocki obiecał, a co Buda zapamiętał

Obniżenie cen prądu. Co Nawrocki obiecał, a co Buda zapamiętał

Źródło:
Konkret24

Europoseł PiS Bogdan Rzońca obarczył Donalda Tuska winą za przejęcie Ursusa przez ukraińskiego inwestora. Przypominamy, jak naprawdę wyglądała historia kłopotów i upadłości polskiego przedsiębiorstwa. Bo ta przypada na lata rządów Zjednoczonej Prawicy.

"Brawo za 'repolonizację' panie Tusk". Jak polityk PiS przekręca historię upadku Ursusa

"Brawo za 'repolonizację' panie Tusk". Jak polityk PiS przekręca historię upadku Ursusa

Źródło:
Konkret24

Kancelaria Prezydenta RP ma być najbardziej oszczędną i zatrudniać najmniej pracowników w porównaniu do innych najważniejszych instytucji w kraju - Kancelarii Sejmu, Kancelarii Senatu i kancelarii premiera. Tak uważa Zbigniew Bogucki, który chwali zaradność kierowanego przez siebie organu. Czy ma rację? Przyglądamy się tym czterem instytucjom.

Bogucki: Kancelaria Prezydenta "najbardziej oszczędna" i zatrudnia najmniej? Wcale nie

Bogucki: Kancelaria Prezydenta "najbardziej oszczędna" i zatrudnia najmniej? Wcale nie

Źródło:
Konkret24

Internauci komentują w sieci od kilku dni pomysł, by bezdzietne Polki pracowały do 65. roku życia tak jak mężczyźni. Jedni wskazują plusy, inni minusy takiego rozwiązania. Czy jednak projekt opóźnienia wieku emerytalnego dla bezdzietnych kobiet powstał w Kancelarii Prezydenta?

Bezdzietne Polki i "praca do 65. roku życia". To nie projekt prezydencki

Bezdzietne Polki i "praca do 65. roku życia". To nie projekt prezydencki

Źródło:
Konkret24

"I jak tu nie popierać Nawrockiego?" - stwierdzają internauci, komentując medialne doniesienia o "nowym świadczeniu 1000 plus", które miał już zatwierdzić nowy prezydent. W tekstach czytamy, jakoby Karol Nawrocki "podpisał ustawę", "wprowadził PIT-0", "dał rodzinom ogromny bonus" itp. Tylko że takiego pomysłu nawet nie było.

Prezydent "podpisał ustawę", "wprowadził 1000 plus"? Co podpisał Nawrocki

Prezydent "podpisał ustawę", "wprowadził 1000 plus"? Co podpisał Nawrocki

Źródło:
Konkret24

Przystąpienie przez Polskę do Europejskiej Tarczy Antyrakietowej, zwanej potocznie żelazną kopułą, było jednym z ważniejszych tematów w kwietniu 2024 roku. Deklaracja o dołączeniu do tej inicjatywy była powtarzana przez czołowych polityków obozu rządzącego, ale jakiś czas temu temat ucichł. Sprawdzamy, co z przystąpieniem Polski do europejskiej żelaznej kopuły.

"Żelazna kopuła" miała być pilnym rozwiązaniem. Odpowiedź MON zaskakuje

"Żelazna kopuła" miała być pilnym rozwiązaniem. Odpowiedź MON zaskakuje

Źródło:
Konkret24

Czy kobiety w Iranie nie muszą już zasłaniać głów hidżabem? Polski internauta przekonuje, że informacje o zmianach w prawie pochodzą od irańskich władz. Okazuje się jednak, że to doniesienie jest nieprawdziwe, a jego podstawą są słowa jednej osoby.

W Iranie nie trzeba nosić hidżabu? Skąd wziął się ten fake news

W Iranie nie trzeba nosić hidżabu? Skąd wziął się ten fake news

Źródło:
Konkret24

Europoseł Prawa i Sprawiedliwości zarzuca ministrowi sprawiedliwości, że zarządził utajnienie oświadczeń majątkowych prokuratorów, co ma być złamaniem prawa. Tyle że działanie Waldemara Żurka dotyczy zupełnie innej kwestii.

Waldemar Żurek "utajnia oświadczenia majątkowe prokuratorów"? Co myli Mariusz Kamiński

Waldemar Żurek "utajnia oświadczenia majątkowe prokuratorów"? Co myli Mariusz Kamiński

Źródło:
Konkret24

Debata o pakcie migracyjnym wróciła wraz ze zbliżaniem się terminu decydowania o mechanizmie solidarnościowym. Poseł PiS Jarosław Sellin, przekonując, że prezydent Karol Nawrocki nigdy się na relokację migrantów do Polski nie zgodzi, przekonywał, że w tym celu może on nawet zamknąć polskie granice. Czy głowa państwa naprawdę ma takie kompetencje?

Sellin o prezydencie: może zamknąć "wszystkie granice". O jednym zapomniał

Sellin o prezydencie: może zamknąć "wszystkie granice". O jednym zapomniał

Źródło:
Konkret24

Coraz częściej w politycznych dyskusjach pada stwierdzenie, że nie da się rozwiązać problemów z wymiarem sprawiedliwości bez resetu konstytucyjnego. Z tym że co innego rozumie pod tym określeniem Konfederacja, co innego prezes PSL, a nad czym innym debatują senatorowie koalicji rządzącej. Eksperci tłumaczą podstawy prawne i zwracają uwagę na tak zwany moment konstytucyjny.

Reset konstytucyjny: o co w tym chodzi. Wizje są, ale konkretów brak

Reset konstytucyjny: o co w tym chodzi. Wizje są, ale konkretów brak

Źródło:
Konkret24

Były miejski radny z Poznania twierdzi, że przez ograniczenie prawa do świadczenia 800 plus dla cudzoziemców, ukraińskie dzieci przestają chodzić do polskich szkół. Jednak dwa fakty przeczą temu, by zmiana prawa już wpłynęła na ilość uczniów z Ukrainy.

Mniej ukraińskich uczniów przez zmiany w 800 plus? Podwójna manipulacja

Mniej ukraińskich uczniów przez zmiany w 800 plus? Podwójna manipulacja

Źródło:
Konkret24

Zdjęcia zrujnowanego dworu mającego być rzekomo domem rodzinnym Fryderyka Chopina wywołały w sieci burzę komentarzy. Tylko że rozpowszechniane są z błędnym opisem.

Ta ruina to "dwór rodzinny Chopina"? Oto jego historia

Ta ruina to "dwór rodzinny Chopina"? Oto jego historia

Źródło:
Konkret24

Zapowiedziana niedawno przez ministra sprawiedliwości Waldemara Żurka nowa ustawa praworządnościowa to najlepszy dowód, że przez dwa lata koalicji 15 października nie udało się przywrócić rządów prawa w Polsce. To nie znaczy, że nie próbowano.

Miało być "szybkie i bezwzględne" przywrócenie praworządności. Dlaczego się nie udało

Miało być "szybkie i bezwzględne" przywrócenie praworządności. Dlaczego się nie udało

Źródło:
Konkret24

Przed wyborami w 2023 roku lewicowa koalicja ogłosiła aż 155 obietnic wyborczych. O ile udało się wprowadzić rentę wdowią, finansowanie in vitro czy uruchomić środki z KPO - to dużo istotnych obietnic, które miała na sztandarach, pozostaje niezrealizowanych. I nie chodzi tylko o zmianę prawa aborcyjnego czy wprowadzenie związków partnerskich.

Nowa Lewica: co z jej głównymi postulatami?

Nowa Lewica: co z jej głównymi postulatami?

Źródło:
Konkret24