Media społecznościowe nie są neutralnym źródłem informacji i wiedzy - rządzą nimi algorytmy zaprojektowane tak, by promować emocje, nie prawdę. To środowisko sprzyja fake newsom i dezinformacji, a raz zasiane fałsze zostają nawet po ich sprostowaniu.
Co jeśli narzędzie, które codziennie wybiera dla ciebie najważniejsze wiadomości - skrojone pod ciebie, dopasowane do twoich zainteresowań, wyszukiwań - nagle zacznie podsuwać kłamstwa? Tak stało się w przypadku Google Discover, spersonalizowanego kanału newsów, który ma ułatwiać dostęp do treści. Tyle że w Wielkiej Brytanii użytkownicy Google Discover dostali fałszywe informacje o rzekomych planach Partii Pracy dotyczących obniżenia wieku emerytalnego oraz obowiązku odnawiania prawa jazdy po 62. roku życia. Według danych serwisu analitycznego Marfeel obie historie wyświetlono odpowiednio 41 i 19 milinów razy. Podobne przypadki odnotowano wcześniej we Francji, gdzie panikę wśród klientów wywołała wiadomość o rzekomo planowanym zamknięciu sieci sklepów Promod.
Takie treści, podawane jako zaufane i wzmacniane przez algorytmy personalizacji, niosą ryzyko erozji zaufania publicznego do informacji i mediów w ogóle. Wielkie firmy technologiczne od dawna mają problem z fake newsami. Pytanie tylko, czy naprawdę próbują ten problem usunąć, czy raczej zamiatają go pod dywan? Algorytmy mediów społecznościowych wciąż premiują fake newsy, dezinformację i teorie spiskowe, bo to właśnie one generują najwięcej emocji, kliknięć i zasięgów. A to, co się klika, zaczyna kształtować sposób, w jaki młodzi ludzie postrzegają świat. I właśnie temu, jak internet wpływa na naszą wiarę w fakty, warto przyjrzeć się bliżej.
Cykl "Big Techy - big biznes na naszych umysłach". Cześć I: Liderzy dezinformacji. Dlaczego Big Techom to się opłaci?
Ufamy platformom, ale czy powinniśmy?
Dla 46 proc. Polaków media społecznościowe są ważnym źródłem informacji - na podobnym poziomie jak radio (50 proc.) i o wiele istotniejszym niż prasa (33 proc.) - wynika z drugiej edycji badania "Dezinformacja oczami Polaków. Edycja 2024" Fundacji Digital Poland. Dla porządku - najpopularniejsze źródła informacji to telewizja (64 proc.) i portale internetowe (58 proc.).
Z kolei za najbardziej wiarygodne źródło informacji media społecznościowe uznaje 12 proc. badanych - to więcej niż prasę, której ufa 10 proc. respondentów. Tyle samo osób wskazało na wyszukiwarki internetowe jako najbardziej godne zaufania źródło informacji. Coraz więcej Polaków przenosi swoje zaufanie do sieci, mimo że to właśnie tam najłatwiej o manipulacje i fałszywe przekazy. I tak co trzeci Polak wierzy, że zaplanowano już kolejną pandemię; niemal co trzeci myśli, że w Smoleńsku doszło do zamachu; jedna piąta uważa, że skoro w zimie pada śnieg, to żadnego ocieplenia klimatu nie ma.
W sierpniu 2024 roku Meta i TikTok i Google (Alphabet) przekazały Komisji Europejskiej obowiązkowe sprawozdania zgodnie z przepisami Aktu o Usługach Cyfrowych (DSA). Te trzy wielkie platformy koncentrują się w nich głównie na zagrożeniach wynikających z działań samych użytkowników i publikowanych przez nich treści. Stosując taką narrację, przedstawiają swoich użytkowników jako główny problem usług, przerzucając na nich - oraz na moderatorów - odpowiedzialność za szkodliwe treści publikowane na platformach. Tymczasem Fundacja Panoptykon, która przeanalizowała te dokumenty, zwraca uwagę, że działania użytkowników to tylko część problemu. "Największe przełożenie na widoczność treści mają algorytmy, które ze względu na cele biznesowe platformy podbijają treści sensacyjne, polaryzujące, nierzadko szkodliwe" - podkreśla organizacja, odnosząc się do działania algorytmów Facebooka. W analizie sprawozdania TikToka dla KE Panoptykon zauważa, że platforma "zarabia na przykuwaniu uwagi użytkowników, nawet jeśli efektem jest, jak mówią młodzi, 'gnicie mózgu' (brainrot)". Fundacja dodaje, że raport TikToka marginalizuje problem uzależniających mechanizmów aplikacji i ich wpływu na dobrostan psychiczny użytkowników.
Z kolei jedna z największych platform wideo twierdzi, że by przeciwdziałać dezinformacji, "YouTube i wyszukiwarka są zaopatrzone w zautomatyzowane systemy zaprojektowane do promowania wiarygodnych treści". Fundacja Panoptykon wytyka jednak podwójne standardy serwisu. Zauważa, że szybko z YouTube'a znikają materiały naruszające prawo autorskie - szczególnie te należące do amerykańskich korporacji medialnych - podczas gdy patostreamy, filmy promujące "medycynę alternatywną" czy pełne przemocy przeróbki animacji dla dzieci pozostają łatwo dostępne. Dlaczego ta druga kategoria wciąż ma się dobrze? "Jak zawsze – dla pieniędzy. Twórcy zarabiają miliony monet na niekończących się streamach live (pato- czy nie) czy na relacjach live z fałszywego ratowania zwierząt" - ocenia Panoptykon. W raporcie Google porusza kwestię uzależnienia dzieci od YouTube'a, jednak nie precyzuje, które funkcjonalności serwisu mogą sprzyjać takim zachowaniom. Jednocześnie w tym samym dokumencie korporacja podważa wyniki badań dotyczących wpływu mechanizmów platform na rozwój uzależnień cyfrowych, uznając je za "nierozstrzygające".
Platformy społecznościowe zapewniają, że podejmują wysiłki, by chronić użytkowników przed fake newsami, zwłaszcza w czasie wyborów. Organizacja Global Witness postanowiła to sprawdzić - testowała jak YouTube, Facebook i TikTok radzą sobie z wykrywaniem fałszywych treści przed wyborami prezydenckimi w Stanach Zjednoczonych w 2024 roku. Przygotowała osiem fałszywych reklam, m.in. o rzekomym obowiązku zdania testu z języka angielskiego przed głosowaniem, wezwania do powtórzenia ataku na Kapitol czy kwestionujące prawa polityków do kandydowania. Wszystkie naruszały zasady Meta, TikToka i Google. TikTok zatwierdził połowę reklam, mimo zakazu reklamowania politycznych treści. Facebook przepuścił jedną z ośmiu, a YouTube – choć również zaakceptował połowę – nie opublikował żadnej bez weryfikacji tożsamości reklamodawcy. Test pokazał, że walka platform z wyborczą dezinformacją wciąż pozostawia wiele do życzenia.
Brak przejrzystości post factum
Wielkie platformy społecznościowe nie tylko mają problem z powstrzymywaniem fali fałszywych i szkodliwych informacji w czasie kryzysów - po fakcie brakuje im też przejrzystości w rozliczaniu własnych błędów. W lipcu 2024 roku w mieście Southport w północno-zachodniej Anglii doszło do tragicznego wydarzenia: trzy dziewczynki zostały zamordowane w trakcie zajęć tanecznych. To wydarzenie wywołało falę zamieszek, które w ciągu kilku dni rozlały się na dziesiątki miast Wielkiej Brytanii. Złość i agresję podsyciły popularne w sieci i w mediach społecznościowych niezweryfikowane doniesienia, że sprawcą ataku był imigrant lub osoba ubiegająca się o azyl. W efekcie doszło do ataków na hotele dla azylantów, meczety, sklepy prowadzone przez mniejszości oraz starć z policją.
Gdy w maju 2025 roku brytyjska komisja parlamentarna zwróciła się do Google o wyjaśnienia dotyczące finansowych powiązań z serwisem Channel3Now, który zasłynął z publikowania fałszywych informacji o zabójstwach w Southport, obwiniając o nie osobę ubiegającą się o azyl. Firma nie ujawniła, ile zarobiła na reklamach publikowanych na tym portalu ani jakie zyski osiągnęło samo Channel3Now. Podobnie platforma X (dawniej Twitter) odmówiła udzielenia informacji na temat tego, czy reklamodawcy wstrzymali działalność reklamową na X podczas letnich zamieszek, tłumacząc to jako "wrażliwe dane biznesowe".
Amnesty International, organizacja zajmująca się prawami człowieka, wezwała rządy na całym świecie do zerwania z wielkimi firmami technologicznymi, argumentując, że "koncentracja władzy" kilku firm ma poważne konsekwencje dla prywatności, niedyskryminacji i dostępu do informacji. Z kolei UNESCO alarmuje, że platformy cyfrowe stały się "ekosystemami dezinformacji, polaryzacji ideologicznej i podżegania do przemocy, dyskryminacji i nienawiści" co podkopało demokrację i zagrażało prawom człowieka na całym świecie. Organizacja wzywa, by platformy były transparentne, odpowiedzialne, przestrzegały praw człowieka i informowały użytkowników w sposób przejrzysty.
Młodzi i media społecznościowe. Niebezpieczne treści, trendy i przemoc
Media społecznościowe to dziś przestrzeń, gdzie młodzi ludzie budują swoją tożsamość, szukają akceptacji, nawiązują relacje i uczą się, jak wygląda świat. Jednocześnie są tu narażeni na przemoc, toksyczne wzorce, często niebezpieczne trendy i fałszywe treści.
TikTok w swoim raporcie z wyników oceny ryzyka deklaruje, że skutecznie radzi sobie z wykrywaniem i usuwaniem treści niezgodnych z regulaminem. W pierwszym kwartale 2023 roku platforma stwierdziła, że wykryła i usunęła 25,8 mln filmów będących zagrożeniem dla nieletnich. Z tego 98,9 proc. treści wykryto i usunięto, zanim zgłosili je użytkownicy, a 88 proc. usunięto, zanim ktokolwiek je obejrzał. Fundacja Panoptykon pyta: "Skoro jest tak dobrze, to dlaczego jest tak źle?". Bo jeżeli moderacja jest tak skuteczna to jak wyjaśnić powracające niebezpieczne trendy TikToka takie jak halloweenowe cukierki z niebezpiecznymi substancjami czy ostrymi przedmiotami, trend na ucieczki z domów na dwie doby czy samookaleczenia?
To, ile czasu młodzi ludzie spędzają w mediach społecznościowych, może wpływać na ich postrzeganie świata. Z najnowszego badania Center for Countering Digital Hate (CCDH) z 2023 roku wynika, że amerykańscy nastolatkowie, którzy częściej korzystają z tych platform, są bardziej skłonni wierzyć w teorie spiskowe. 60 procent badanych w wielu 13-17 lat, którym przedstawiono teorie spiskowe, zgodziło się z co najmniej czterema z nich. Te dotyczyły m.in. zmian klimatu, migrantów, Żydów i szczepionek. Odsetek wzrósł do 69 proc. wśród nastolatków spędzających w mediach społecznościowych cztery godziny więcej godzin dziennie. Dla porównania, 49 procent badanych dorosłych zgodziło się z co najmniej czterema teoriami spiskowymi.
Inny raport CCDH z 2023 roku także nie pozostawia złudzeń. Przez trzy lata TikToka zalewały filmy polecające niebezpieczne środki dopingujące (w tym sterydy) i inne specyfiki poprawiające wydolność. W tym czasie obejrzano je w Stanach Zjednoczonych ponad 587 mln razy. Aż 71,5 proc. z tych wyświetleń, czyli około 420 mln, pochodziło od młodych użytkowników w wieku 18-24 lat. Twórcy takich nagrań doskonale trafiają w język młodzieży, zachęcając nastolatków do eksperymentowania i radząc im, by "powiedzieli rodzicom, że to tylko witaminy". "Zasadniczo jest to historia rażącej porażki serwisu TikTok w zakresie zarządzania własną platformą i egzekwowania swoich zasad" - oceniają badacze z CCDH. Badanie opublikowane w "Journal of Youth and Adolescence" pokazuje z kolei, że młodsi nastolatkowie często nie rozumieją, że treści influencerów mają charakter reklamowy, jeśli nie są one wyraźnie oznaczone. Starsi nastolatkowie radzą sobie lepiej - potrafią rozpoznać perswazję i są bardziej krytyczni wobec marek oraz samych twórców. Autorzy badania podkreślają jednak, że skuteczność oznaczeń treści sponsorowanych lub reklamowych zależy od etapu rozwoju młodzieży, a nie tylko od sposobu, w jaki reklama jest przedstawiona.
Sprzeczność między deklaracjami a skutecznością
"Obecne działania platform społecznościowych w zakresie walki z dezinformacją charakteryzuje głęboka ambiwalencja między deklarowanymi celami a faktyczną skutecznością. Badania MIT z 2023-2024 roku wykazały, że etykiety ostrzegawcze stosowane przez fact-checkerów zmniejszają wiarę w fałszywe nagłówki o 27 proc. i ograniczają ich udostępnianie o 25 procent. To wskazuje na potencjał istniejących mechanizmów" - ocenia profesor Dariusz Jemielniak badacz społeczny z Akademii Leona Koźmińskiego.
Zwraca uwagę na niepokojący trend odwrotu od aktywnej moderacji treści. "Meta ogłosiła zakończenie współpracy z profesjonalnymi fact-checkerami, przerzucając odpowiedzialność na użytkowników poprzez system community notes, co eksperci określają jako potencjalną katastrofę. Od 2021 roku największe platformy społecznościowe ograniczają działania przeciw wirusowej dezinformacji, redukując zespoły moderacji treści" - stwierdza. W ciągu dwóch lat po przejęciu Twittera (dziś X) przez Elona Muska, zwolniono 80 proc. członków zespołu ds. zaufania i bezpieczeństwa, a w 2023 roku Meta zwolniła ponad trzystu pracowników zajmujących się moderacją treści. W tym samym roku z Google zwolniono ok. jednej trzeciej zespołu zajmującego się ochroną społeczności przed dezinformacją, radykalizacją, toksycznością i cenzurą.
W ocenie profesora Jemielniaka głównym problemem strukturalnym pozostaje skala.
Fact-checkerzy nie są w stanie nadążyć za całą zawartością publikowaną online, co więcej, dezinformacja jest opłacalna dla platform społecznościowych, co stanowi jedną z przyczyn niechęci do ograniczania manipulacji użytkownikami
Tu szczególne zagrożenie stanowi rozwój generatywnej sztucznej inteligencji. "Narzędzia AI są wykorzystywane do tworzenia deepfake'ów oraz fałszywych stron informacyjnych z fikcyjnymi personami dziennikarzy, co dramatycznie zwiększa skalę i wyrafinowanie kampanii dezinformacyjnych" - dodaje profesor Jemielniak.
Gdy klik jest ważniejszy niż prawda
Media społecznościowe stały się dla milionów ludzi głównym źródłem informacji – i właśnie w tym, jak ostrzegają eksperci, tkwi poważny problem. Profesor Dariusz Jemielniak zwraca uwagę, że zaufanie do nich jest niebezpiecznym złudzeniem. "Media społecznościowe nie mogą być wiarygodnym źródłem informacji ze względu na fundamentalne cechy ich architektury informacyjnej oraz mechanizmy psychologiczne wpływające na użytkowników" - przestrzega profesor. I tłumaczy: "Po pierwsze, algorytmy platform priorytetyzują zaangażowanie nad prawdziwość. Czynniki psychologiczne, takie jak emocje, przekonania i lęki, determinują reakcje na fałszywe informacje i ich rozpowszechnianie w mediach społecznościowych. Badania pokazują, że dzielenie się dezinformacją nie jest w pełni racjonalne i często jest napędzane stanami afektywnymi".
Drugi problem to paradoks zaufania. Jemielniak przytacza wyniki badań na próbie 2600 respondentów, które wykazały, że "osoby bardziej ufające instytucjom częściej dzielą się niezweryfikowanymi informacjami, gdyż przeceniają swoją zdolność do oceny treści (efekt nadmiernej pewności siebie)". "Zaufanie negatywnie koreluje z motywacją do weryfikacji informacji - użytkownicy polegają na użyteczności informacji, zamiast angażować się w krytyczne myślenie" - zauważa ekspert. Zwraca też uwagę na alarmujące statystyki. "42 procent użytkowników Facebooka zgłasza regularne napotykanie wprowadzających w błąd lub fałszywych informacji niemal za każdym razem gdy korzystają z platformy. Jednocześnie zaufanie do mediów głównego nurtu spadło do zaledwie 30 procent wśród dorosłych Amerykanów" - podaje prof. Jemielniak.
Przedłużone oddziaływanie fake newsów
Profesor Jemielniak podkreśla, że wpływ fałszywych informacji nie kończy się w momencie, gdy zostaną one obalone. Mechanizmy poznawcze sprawiają, że raz zasiane przekonania trudno jest wykorzenić - nawet przy twardych dowodach.
Dezinformacja nie tylko prowadzi do błędnych ocen i decyzji, ale wywiera także trwały wpływ na rozumowanie ludzi nawet po jej skorygowaniu - efekt znany jako efekt przedłużonego wpływu dezinformacji. To sprawia, że szkody wyrządzone przez fake newsy są długotrwałe i trudne do naprawienia.
"Rozwiązanie wymaga działań systemowych: transparentności algorytmów, edukacji medialnej, wzmocnienia fact-checkingu oraz, paradoksalnie, zachowania równowagi między wolnością wypowiedzi a integralnością informacji. Bez tych zmian media społecznościowe pozostaną przestrzenią wysokiego ryzyka informacyjnego" - ocenia profesor.
Dlaczego ufamy informacjom z mediów społecznościowych
- Rola platform cyfrowych w dostępie do informacji jest dziś bardzo istotna. Wiele badań pokazuje, że odbiorcy czerpią wiedzę o świecie w coraz większym stopniu z mediów społecznościowych. Co więcej, zaufanie do informacji publikowanych w tych kanałach jest stosunkowo wysokie - zwłaszcza wśród młodszych użytkowników - mówi dr hab. Karina Stasiuk-Krajewska, profesor Uniwersytetu SWPS, badaczka CEDMO specjalizująca się w analizie struktury i wpływu dezinformacji. - Warto jednak zwrócić uwagę na to, że temu rosnącemu zaufaniu do mediów społecznościowych towarzyszy wyraźny spadek zaufania do mediów profesjonalnych i coraz mniejsze zainteresowanie ich przekazami. Widać wyraźnie, że odbiorcy odwracają się od tradycyjnych mediów, uważając, że dziennikarze nie są wiarygodni, a prezentowany przez nich obraz świata jest zbyt negatywny. Przekaz, który koncentruje się na zagrożeniach i konfliktach, często budzi w odbiorcach niepokój i zniechęcenie - stwierdza.
Jak zauważa badaczka, w efekcie potrzebę dostępu do informacji coraz częściej zaspokajają media społecznościowe. Te użytkownicy uznają za bardziej autentyczne i im bliższe. - Odbiorcy częściej ufają osobom podobnym do siebie - znajomym czy influencerom - niż bardziej tradycyjnym autorytetom i instytucjom. Przekaz wydaje się bardziej wiarygodny, jeśli pochodzi od kogoś, kogo znamy lub z kim się utożsamiamy. Dodatkowo media społecznościowe wzmacniają zaufanie poprzez personalizację treści i emocjonalny charakter przekazu. Dostajemy komunikaty dopasowane do naszych poglądów i zainteresowań, co sprzyja tworzeniu tak zwanych baniek informacyjnych – środowisk potwierdzających naszą wizję świata - tłumaczy prof. Stasiuk-Krajewska.
- Nie można też pominąć faktu, iż media społecznościowe są po prostu bardziej angażujące niż inne media. Użytkownicy czują, że współtworzą przekaz - mogą komentować, udostępniać, reagować. To zwiększa ich emocjonalne zaangażowanie - wyjaśnia. - Dodatkowo przekazy w tych mediach są atrakcyjne wizualnie. Oparte na obrazie, wideo, krótkich tekstach są łatwe w odbiorze i niewymagające dużego skupienia. W przypadku tradycyjnych mediów istnieją zasady i regulacje, które porządkują odpowiedzialność dziennikarzy. W mediach społecznościowych jest to znacznie trudniejsze - technicznie i społecznie - dodaje prof. Stasiuk-Krajewska. - Użytkownicy traktują te przestrzenie jako "swoje", dlatego każda próba ograniczenia swobody wypowiedzi budzi silne emocje. Platformy z kolei często wzmacniają te nastroje, bo leży to w ich interesie ekonomicznym - zauważa.
Przekazy w mediach społecznościowych przyciągają nas nie tylko formą, ale i treścią. - W badaniach CEDMO widać bardzo wyraźnie, że zdecydowana większość przekazów dezinformacyjnych - zwłaszcza tych, które określamy jako fake newsy - odwołuje się do teorii spiskowych. To niezwykle charakterystyczne zjawisko - mówi Stasiuk-Krajewska. Wspomniane badania porównawcze narracji, zawartości i struktury fake newsów dotyczyło przekazów z Polski, Czech i Słowacji. W 37 proc. analizowanych fake newsach głównym kontekstem ich prezentowania była teoria spiskowa. Kolejne były deprecjonowanie autorytetu (27 proc.) oraz konflikt i przemoc elit (po 12 proc.).
Skąd ta popularność treści bazujących na teoriach spiskowych?
Teorie spiskowe pełnią bowiem funkcję swoistego "rusztowania" dla dezinformacji: porządkują świat w prosty, emocjonalny sposób, dostarczając odbiorcom złudnego poczucia zrozumienia rzeczywistości.
- W dodatku w mediach społecznościowych myślenie spiskowe bywa utożsamiane z myśleniem niezależnym. To bardzo skuteczny mechanizm, bo myślenie samodzielne cenimy, a przekazy spiskowe świetnie to wykorzystują, tworząc pozory racjonalności i autentyczności - tłumaczy ekspertka.
- Wreszcie, warto podkreślić, że fałszywe treści są po prostu opłacalne. Generują duże zaangażowanie i przychody z postów sponsorowanych. Dla platform to realna korzyść finansowa, dlatego trudno się dziwić, że ich obecność w tym ekosystemie jest trwałym elementem obiegu informacji - ocenia Karina Stasiuk-Krajewska.
Źródło: Konkret24
Źródło zdjęcia głównego: Shutterstock