Rosyjską Kamczatkę sparaliżowały zamiecie śnieżne. W sieci mamy wysyp nagrań i obrazów rzekomo pokazujących sytuację na półwyspie. Oto trzy niebezpieczne trendy w rozpowszechnianiu fake newsów, które właśnie się ujawniają.
"Rekordowa ilość śniegu już nawet wyższa niż wieżowce zmusza do wyciągnięcia nart", "na rosyjskim końcu świata dzieje się zimowy koszmar" - brzmią opisy zdjęć, które w ostatnich dniach zalały media społecznościowe. Pojawiły się na profilach z logo RT, Międzynarodowego Radia Białoruś i innych tego typu "mediów", wiele z takich fotografii - również na prywatnych kontach. Fotografie są wręcz zjawiskowe, masy śniegu sięgają wysokości bloków mieszkalnych, tunele w śniegu mają wysokość kilku metrów, auta zakopane są kilka metrów pod białą pierzyną.
Te obrazy działają na wyobraźnię - są jednak przejawem negatywnych trendów, przed którymi ostrzegaliśmy na początku tego roku.
CZUTAJ W TVN24+: "Eksport chaosu". Co nam grozi w 2026 roku
Ile naprawdę napadało śniegu
Zaspy sięgające kilku metrów, samochody znikające pod grubą warstwą śniegu i wejścia do bloków całkowicie zablokowane - tak rzeczywiście w połowie stycznia wyglądała rosyjska Kamczatka. Region nawiedziły największe opady śniegu od ponad 30 lat. Z danych rosyjskiej służby meteorologicznej wynika, że miejscami warstwa śniegu sięga nawet czterech metrów - podał Reuters.
Zdjęcia i nagrania dokumentujące te wydarzenia szybko obiegły internet. Sęk w tym, że większość z nich to obrazy wygenerowane narzędziami sztucznej inteligencji. Efekt jest taki, że po kilku dniach już coraz trudniej odróżnić, które obrazy pokazują rzeczywistość, a które są jedynie cyfrową fantazją. Gdy prognozowaliśmy, z jakimi niebezpieczeństwami, jeśli chodzi o fake newsy i dezinformację, będziemy mieli do czynienia w tym roku, właśnie masowa automatyzacja dezinformacji i kłamstw z wykorzystaniem AI była jednym z nich. Doktor Andrzej Kozłowski z Uniwersytetu Łódzkiego przestrzegał, że poprzez prostotę tworzenia materiałów przy pomocy AI "możemy mieć nawet więcej treści tworzonych przez sztuczną inteligencję niż przez człowieka". I tak się dzieje w przypadku obrazów zimy na Kamczatce.
Najpierw zobaczmy, jaka jest prawda. Bo część krążących w sieci materiałów z Kamczatki jest jak najbardziej autentyczna. To zdjęcia i nagrania wykonane przez lokalnych mieszkańców i zawodowych fotografów dokumentujące wyjątkowo obfite opady śniegu. Jak je rozpoznać w dobie AI? Po wiarygodnych źródłach ich pochodzenia, precyzyjnych opisach, autorach fotografii oraz spójności z relacjami wiarygodnych redakcji i agencji informacyjnych. Poniżej publikujemy kilka fotografii przedstawiających prawdziwy obraz zimy na Kamczatce po ostatnich opadach śniegu.
Z kolei zdjęcie poniżej przedstawia sytuację nieco przypominającą tę, którą pokazuje też wiele zdjęć AI - czyli śnieg sięgający dolnych pięter bloku w Pietropawłowsku Kamczackim. 15 stycznia to i inne podobne fotografie wykonała lokalna fotografka Lydmila Moskvicheva. Cztery dni później jej zdjęcia opublikowała agencja informacyjna Reuters, podając dokładny opis sytuacji i dane autorki - takie informacje potwierdzają autentyczność obrazów.
Te prawdziwe zdjęcia może nie mają tak wyrazistych kolorów (oślepiająca biel śniegu, duże kontrasty) jak materiały AI, lecz na pewno mają lepszą jakość obrazu czy wyraźne detale, których sztuczna inteligencja nie potrafi wiarygodnie odtworzyć - np. nieregularne ślady na śniegu, zachowanie światła, spontaniczne reakcje ludzi.
Używając AI, lubimy przesadzać
Natomiast te bardziej spektakularne, "piękne", nieraz szokujące obrazy zimy na Kamczatce dają się szybko rozpoznać jako materiały AI. Choć na pierwszy rzut oka efektowne, przy bliższej analizie zdradzają brak konkretnego źródła, autora i kontekstu - i to już powinno zapalić pierwszą czerwoną lampkę u odbiorców.
Grafiki poniżej to tylko kilka przykładów materiałów wygenerowanych przez AI, ale przedstawianych jako autentyczne zdjęcia i nagrania z Kamczatki. Odróżnienie ich od tych prawdziwych nie jest łatwe.
Najpierw sprawdź, skąd pochodzi materiał. Anonimowe konto lub profil należący do mediów powiązanych z reżimami (w tym przypadku Międzynarodowe Radio Białoruś) lepiej od razu traktować ostrożnie. Zwróć uwagę, czy w postach podawane są źródła informacji bądź szczegóły pozwalające je dalej weryfikować. Jeśli ich brakuje, potraktuj taki wpis jako mało wiarygodny.
Wiele wyjaśnia się bowiem, gdy zaczynamy szukać źródła. Tak było w przypadku krótkiego nagrania ogromnej zaspy, która miała sięgać szczytu dziewięciopiętrowego bloku z pomarańczowymi i zielonymi balkonami. Dzięki odwróconemu wyszukiwaniu obrazem wiemy, że to samo nagranie 16 stycznia pojawiło się na TikToku - a tam autor oznaczył je od razu jako treść AI.
Z pomocą przychodzą też narzędzia do wykrywania nagrań i grafik, które powstały przy użyciu AI. I tak np. narzędzie HiveModeration wykazuje, że dwa popularne w polskiej sieci zdjęcia przedstawiające zasypane śniegiem blokowisko, w tym ogromny nasyp śniegu górujący nad ich dachami - to fikcja.
W takich momentach przydaje się też ogólna wiedza o świecie. Między innymi o tym, że Kamczatka leży w Pacyficznym Pierścieniu Ognia, czyli w jednej z najbardziej narażonych na trzęsienia ziemi części świata. Z tego względu unika się tam budowania tak wysokich budynków, jakie widać teraz na wielu materiałach AI w sieci.
Dwa kolejne niebezpieczne zjawiska
Jak zwracaliśmy uwagę w 2025 roku, wykorzystywanie sztucznej inteligencji do "podpinania się" pod bieżące wydarzenia nie jest już zjawiskiem incydentalnym, lecz trwałym trendem. I jak widać, będzie się nasilał. Dynamiczny rozwój narzędzi AI, łatwość masowej produkcji treści oraz realne korzyści finansowe sprawiają, że tego typu praktyki stają się atrakcyjne dla coraz szerszego grona twórców i operatorów anonimowych kont.
Przypomnijmy: podobny schemat obserwowaliśmy podczas protestów francuskich rolników w grudniu 2025 roku - już wtedy wiele nagrań mających przedstawiać demonstracje było materiałami AI. Podobnie było na początku stycznia tego roku - po tym, jak agent ICE zastrzelił w Minneapolis 37-letnią Renee Good. W Konkret24 opisywaliśmy konto, które dla zwiększenia zasięgów opublikowało co najmniej kilkadziesiąt różnych nagrań AI, w których kobiety prowadzące samochód rozmawiają z agentami ICE - tak jak Good na chwilę przed śmiercią.
Tego typu działania z materiałami AI to jeden z najprostszych sposobów na szybkie zwiększenie zasięgów, a w konsekwencji także potencjalnych zarobków - na przykład z reklam wyświetlanych na Facebooku czy ze sprzedaży kont z dużymi zasięgami wygenerowanymi treściami AI.
Case z Kamczatki obrazuje też kolejne niebezpieczeństwo dla odbiorców informacji. Profesor Aleksandra Przegalińska, badaczka AI z Akademii Leona Koźmińskiego, ostrzega, że zmęczenie wszechobecnymi i coraz lepszymi materiałami AI może zwiększyć obojętność odbiorców na jakiekolwiek informacje. - Nadmiar treści generowanych przez AI może prowadzić do postawy "niczemu nie wierzę". To paradoksalnie sprzyja dezinformacji, bo osłabia autorytet rzetelnych mediów i instytucji - zauważa.
Spójrzmy na "zdjęcia" z Kamczatki: czy nie czujemy już nimi przesytu?
Źródło: Konkret24
Źródło zdjęcia głównego: Lydmila Moskvicheva / Reuters / Forum