Im więcej czasu użytkownicy spędzają na platformach internetowych - takich jak Facebook, Instagram, YouTube, X czy TikTok - tym większy jest ich zysk. Platformom zależy więc na faworyzowaniu treści sensacyjnych lub emocjonalnych, a przez to często dezinformacyjnych, które bardziej przyciągają uwagę. Wyjaśniamy, jak wielkie firmy technologiczne zorientowały się, że mogą zarabiać na dezinformacji.
"To próba powrotu do zaangażowania na rzecz wolności wypowiedzi" - zapewniała spółka Meta, gdy w styczniu 2025 roku informowała o rezygnacji z zewnętrznych weryfikatorów informacji na Facebooku i Instagramie. Zmiany ogłoszono na dwa tygodnie przed zaprzysiężeniem Donalda Trumpa na prezydenta Stanów Zjednoczonych, a ich wdrażanie rozpoczęto właśnie od rynku amerykańskiego. Zewnętrzni fact-checkerzy mają jednak stopniowo znikać z Facebooka i Instagrama także w kolejnych krajach, w tym państwach europejskich.
Ich miejsce zajmą tzw. notatki społeczności, czyli system już wcześniej wprowadzony przez Elona Muska na platformie X. Polega na dopisywaniu informacji kontekstowych przez użytkowników, które - jeśli zdobędą odpowiednią popularność - wyświetlą się pod wpisami. Meta przekazała, że notatki społeczności nie będą jednak przykrywać oryginalnych wpisów, tak jak robiły to ostrzeżenia o fake newsach, a przede wszystkim zasięgi postów podważonych przez użytkowników nie będą ograniczane. Tak więc nawet jeśli dana informacja będzie totalną bzdurą, pod którą pojawi się weryfikująca notatka społeczności, wciąż będzie mogła dotrzeć do szerokiego grona odbiorców "z etykietą wskazującą, że są dodatkowe informacje dla tych, którzy chcą je zobaczyć".
Dlatego tę decyzję skrytykowała m.in. Europejska Sieć Standardów Fact-checkingowych (EFCSN). "Platformy wycofujące się z walki z wprowadzaniem w błąd i dezinformacją umożliwiają, a potencjalnie nawet zachęcają do ingerencji w wybory, zwłaszcza ze strony podmiotów zagranicznych" - ostrzeżono w oświadczeniu. Po tej zmianie wiele osób zadawało sobie jednak pytanie: czy "walka z wprowadzaniem w błąd i dezinformacją" jest w ogóle w interesie platform internetowych, tzw. Big Techów? I dlaczego, mimo nieustających zapewnień o tej walce, użytkownicy niemal codziennie spotykają się z dezinformacją w mediach społecznościowych? Odpowiedzią może być model biznesowy platform internetowych, który eksperci od dezinformacji nazywają "ekonomią uwagi".
"Bardzo ograniczone" wysiłki na rzecz walki z dezinformacją
Największe platformy internetowe działające na terytorium Unii Europejskiej od 2023 roku muszą raportować swoje postępy w walce z dezinformacją. Zobowiązuje je do tego Kodeks Postępowania w Zakresie Dezinformacji (CoPD), który od lipca 2025 roku włączono w ramy unijnego Aktu o Usługach Cyfrowych (DSA).
CZYTAJ WIĘCEJ W KONKRET24: Nawrocki i PiS: rząd Tuska chce "cenzury w internecie". O co chodzi z DSA
Oceny raportów platform w lipcu 2025 roku podjęło się Europejskie Obserwatorium Mediów Cyfrowych (EDMO). Eksperci przeanalizowali działania na rzecz walki z dezinformacją, które Meta, Google, Microsoft i TikTok zadeklarowały w pierwszej połowie 2024 roku. Wnioski były niepokojące. "Jeśli chodzi o skuteczność inicjatyw i działań największych platform i wyszukiwarek, ankieta przeprowadzona wśród ekspertów sugeruje, że dotychczasowe wysiłki są nadal bardzo ograniczone, brakuje im spójności i znaczącego zaangażowania" - stwierdzili analitycy z EDMO. "Nawet jeśli istnieją formalne porozumienia, ich wdrażanie często nie spełnia oczekiwań. W rezultacie obecne wysiłki rzadko przekładają się na długoterminowe, systemowe wsparcie dla strategii przeciwdziałania dezinformacji" - alarmowali.
Przykładowo działania na rzecz weryfikacji faktów na TikToku oceniono jako "bardzo słabe". Żadnej badanej platformie, zdaniem ekspertów EDMO, nie udało się wyposażyć użytkowników w narzędzia skutecznie pomagające im identyfikować dezinformację. Czy takie wnioski powinny jednak dziwić? Nie, jeśli znało się treść wcześniejszych analiz i raportów dotyczących rozpowszechniania nieprawdziwych informacji w mediach społecznościowych.
Platformy internetowe jako "trampoliny dla kampanii dezinformacyjnych"
Podawanie wyłącznie prawdziwych informacji niekoniecznie leży w interesie platform internetowych, a mechanizmy napędzające ruch w mediach społecznościowych mogą wręcz wspomagać rozpowszechnianie dezinformacji - takie najważniejsze wnioski można było wysnuć z raportów dotyczących platform tworzonych przez organizacje pozarządowe lub naukowców w ostatnich latach. Wiele z nich było firmowanych przez instytucje państwowe czy międzynarodowe.
Najczęściej o promowanie nieprawdziwych treści kosztem rzetelnych informacji autorzy oskarżali algorytmy działające na platformach internetowych. To właśnie te automatyczne systemy rekomendacji w dużej mierze decydują, na jakie informacje i wiadomości natrafiamy, przeglądając media społecznościowe. Znając mechanizm ich działania, think tank Globsec już w styczniu 2024 roku apelował do ONZ i UE, że regulacje mediów społecznościowych "powinny koncentrować się na regulacji algorytmów, (...) ponieważ coraz więcej badań dowodzi, że systemy rekomendacji oparte na algorytmach przyczyniają się do rozpowszechniania dezinformacji i szkodliwych treści".
Powołano się przy tym na badania dr Irene Pasquetto z Uniwersytetu Michigan. W swojej pracy "Dezinformacja jako infrastruktura: tworzenie i podtrzymywanie teorii spiskowej QAnon we włoskich mediach cyfrowych" (ang: "Disinformation as Infrastructure: Making and Maintaining the QAnon Conspiracy on Italian Digital Media") z 2022 roku opisała ona, jak media społecznościowe i ich algorytmy zostały wykorzystane do rozpowszechniania dezinformacji przez zwolenników teorii spiskowych z ruchu QAnon. Pisała:
Platformy działają jak trampoliny dla kampanii dezinformacyjnych, a im dłużej zwlekają z interwencją, tym trudniej jest wyeliminować infrastrukturę dezinformacji.
Jako przykład badaczka podała nieprawdziwe informacje o pandemii COVID-19 rozpowszechniane na Facebooku i Twitterze od wiosny 2020 roku przez konta powiązane z ruchem QAnon. Jak ustaliła dr Pasquetto, platformy zaczęły usuwać je dopiero jesienią 2020 roku, co jej zdaniem było spóźnioną reakcją, ponieważ wtedy już infrastruktura tej dezinformacji była "szeroko rozpowszechniona".
CZYTAJ WIĘCEJ W KONKRET24: Plotki, stygmatyzacja i teorie spiskowe. Infodemia o COVID-19 jest niczym wirus
Pasquetto w 2021 roku współtworzyła też opracowanie pt. "Co powinniśmy zrobić w związku z algorytmicznym wzmacnianiem dezinformacji?" (ang. "What should we do about the algorithmic amplification of disinformation?") opublikowane w "Columbia Journalism Review". Świeżo po wyborach prezydenckich w Stanach Zjednoczonych i pandemii COVID-19 postawiono w nim mocną tezę: "Jednymi z największych źródeł dezinformacji są platformy społecznościowe, na których spędzamy znaczną część naszego życia - Facebook, Twitter (obecnie X - red.) i YouTube. Na tych platformach teorie spiskowe i oszustwa rozprzestrzeniają się z prędkością bliską prędkości światła dzięki algorytmom rekomendacji, z których korzystają wszystkie te usługi". Krytykowano też Facebooka za brak odpowiednich działań w tej sprawie: "Chociaż Facebook szczególnie chętnie chwali się, ilu ma użytkowników w innych krajach, nie zawsze realizuje usługi, które mogłyby pomóc w moderacji treści".
"Nie masz kontroli nad tym, co widzisz na swojej tablicy"
Przez kolejne lata - mimo zapewnień platform - w kwestii ograniczania algorytmów działo się jednak niewiele. Przed wyborami do Parlamentu Europejskiego w 2024 roku amerykański think tank Integrity Institute ostrzegał więc, że "głównym czynnikiem wpływającym na dezinformację wyborczą - i kluczowym aspektem platform mediów społecznościowych wykorzystywanych przez nieuczciwych graczy - są algorytmy". To o tyle ważne słowa, że napisali je analitycy, którzy pracowali dla Mety w celu zapewnienia uczciwości wyborów. Po swoich doświadczeniach stwierdzili wprost:
Nie masz tak naprawdę kontroli nad tym, co widzisz na swojej 'tablicy', mimo zapewnień, że jest inaczej. Kontrolę sprawują właściciele mediów społecznościowych. Systemy te były wielokrotnie wykorzystywane jako broń: złoczyńcy wykorzystywali je do siania zamętu, atakowania pracowników wyborczych i wyborców, wzmacniania dezinformacji.
W tym samym roku sam właściciel Facebooka przyznał, że jego systemy rekomendacji mogą przyczyniać się do dystrybucji dezinformacji. W sprawozdaniu z sierpnia 2024 roku, które Meta musiała złożyć do Komisji Europejskiej na podstawie przepisów DSA, stwierdzono: "Chociaż systemy rekomendacji stanowią kluczową funkcję naszej platformy i dysponujemy rozbudowanym ekosystemem mechanizmów kontroli, które pozwalają nimi zarządzać, niektóre potencjalnie problematyczne treści, które nie naruszają naszych wytycznych, mogą zostać zarekomendowane, zanim zdążymy je wykryć i usunąć, a niektóre konta naruszające zasady mogą ominąć nasze technologie wykrywania i zostać zarekomendowane. Ten czynnik może mieć wpływ na wszystkie obszary ryzyka systemowego". Jako jeden z tych obszarów wymieniono właśnie dezinformację.
Fundacja Panoptykon zajmująca się m.in. kontrolą działalności platform, która analizowała potem treść tego raportu, komentowała: "Największe przełożenie na widoczność treści mają algorytmy, które ze względu na cele biznesowe platformy podbijają treści sensacyjne, polaryzujące, nierzadko szkodliwe. W swoim sprawozdaniu Meta wspomina wprawdzie, że systemy rekomendacyjne mają wpływ na dystrybucję dezinformacji i eksponowanie użytkowniczek/użytkowników na treści dotyczące samobójstw czy samookaleczania, ale to i tak grube niedopowiedzenie".
TikTok poleca filmiki AI przed wyborami
W tym samym czasie opublikowano dowody na to, że szczególnie podatne na dezinformację są algorytmy TikToka. Przypomnijmy, że EDMO ocenił działania na rzecz weryfikacji faktów na tej platformie jako "bardzo słabe".
W lipcu 2024 roku ukazał się artykuł portalu BBC, w którym opisano, jak algorytmy TikToka przed wyborami w Wielkiej Brytanii polecały młodym użytkownikom dezinformację lub fałszywe filmy generowane przez sztuczną inteligencję przedstawiające liderów partii politycznych. Dzięki temu setki tysięcy użytkowników zobaczyło nieprawdziwe wypowiedzi Rishiego Sunaka z Partii Konserwatywnej o rzekomym wysyłaniu młodych Brytyjczyków na wojny w Ukrainie i Strefie Gazy oraz fałszywe informacje, jakoby Keir Starmer z Partii Pracy ponosił odpowiedzialność za brak ścigania seryjnego pedofila.
Oczywiście nie były to pierwsze zarzuty pod adresem TikToka za nieskuteczną walkę z dezinformacją. W listopadzie 2023 roku, a więc jeszcze przed startem kampanii wyborczej w Wielkiej Brytanii, naukowcy z amerykańskiego Capitol University of Technology alarmowali: "Konstrukcja TikToka, w którym przyszłe treści są w dużej mierze oparte na wcześniejszych interakcjach z podobnymi treściami, przyczynia się do szybkiego rozprzestrzeniania się dezinformacji".
Na podobne zagrożenia wskazywała też dr Ika Idris, która pracuje na indonezyjskim kampusie australijskiego Monash University. W sierpniu 2024 roku pisała dla Australijskiego Instytutu Spraw Międzynarodowych: "Unikalne połączenie rozrywki i atrakcyjności wizualnej sprawiło, że TikTok stał się potężnym narzędziem kształtowania opinii publicznej, a tym samym podatnym gruntem do rozpowszechniania dezinformacji". Podawała też trzy powody, dla których informacje na TikToku mają większy wpływ na użytkowników niż na innych platformach. To dłuższy czas spędzany na oglądaniu z pozoru niewinnych materiałów wideo, przyciąganie młodych ludzi i format treści sprzyjający zapamiętywaniu, a tym samym kształtowaniu opinii użytkowników.
Model biznesowy "sprzyja fałszywym wiadomościom"
Algorytmy platform internetowych nie proponują użytkownikom nieprawdziwych informacji ze względu na to, że są nieprawdziwe, ale przez to, że mogą potencjalnie budzić większe zainteresowanie internautów. A właśnie na tym zyskują platformy, co również opisano w różnych badaniach i raportach na ich temat.
"Strategia biznesowa czołowych firm technologicznych, polegająca na przyciąganiu i monetyzowaniu uwagi użytkowników, może dodatkowo wpływać na rozpowszechnianie dezinformacji. W tym modelu (...) prawda schodzi na dalszy plan, a priorytetem jest dostarczanie treści, które rezonują z emocjami użytkowników" - stwierdziło trzech naukowców z Akademii Górniczo-Hutniczej w Krakowie w ich pracy opublikowanej w styczniu 2025 roku w czasopiśmie "Media i Społeczeństwo".
Tę zależność odnotowała już w 2018 roku Komisja Europejska. W opracowaniu zleconym prof. Divinie Frau-Meigs z Uniwersytetu Sorbonne-Nouvelle postawiono tezę, że platformy korzystają na popularności emocjonalnych treści, w tym dezinformacji, ze względu na wyświetlane przy nich reklamy. "Reklama może być bezpośrednio powiązana z dezinformacją rozpowszechnianą za pośrednictwem mediów społecznościowych ze względu na model biznesowy oparty na algorytmach, które nie uwzględniają dokładności i obiektywności witryn informacyjnych, ale skupiają się raczej na zaangażowaniu w historie (zweryfikowane lub fałszywe)" - podkreślała autorka raportu. A pisząc o systemach sprzedawania reklam na platformach, stwierdziła wprost:
Ten model biznesowy, oparty częściowo na monetyzacji treści generowanych przez użytkowników, sprzyja 'fałszywym wiadomościom', ponieważ generują one zaangażowanie i ruch oparty na nastrojach społecznych, a tym samym przychody z reklam.
Szczegółowo ten mechanizm opisała dr Mihaela Popa-Wyatt z Uniwersytetu w Manchesterze w swoim opracowaniu stworzonym na zamówienie brytyjskiego parlamentu. Badaczka pisze wprost, że modele biznesowe platform mediów społecznościowych zachęcają do rozpowszechniania szkodliwych treści, w tym dezinformacji.
"Główną przyczyną jest fakt, że platformy priorytetowo traktują zaangażowanie użytkowników ze względów komercyjnych. W 'ekonomii uwagi' platformy konkurują o uwagę użytkowników, aby generować przychody z reklam. Im więcej czasu użytkownicy spędzają na platformie, tym większy jest jej zysk. Prowadzi to do tworzenia algorytmów, które faworyzują treści sensacyjne lub nacechowane emocjonalnie, niezależnie od ich prawdziwości lub akceptowalności, ponieważ takie treści zazwyczaj generują zaangażowanie" - tłumaczy dr Popa-Wyatt. I dodaje:
Platformy takie jak Meta i YouTube w dużym stopniu opierają się na algorytmach selekcjonujących treści, które promują dezinformację i treści ekstremistyczne ze względu na ich zdolność do angażowania użytkowników.
Ekspert: "platformy korzystają na emocjonalnych, choć nieprawdziwych treściach"
O "ekonomii uwagi" jako jednym z powodów ciągłej obecności dezinformacji na platformach internetowych pisze także w analizie przesłanej Konkret24 prof. Dariusz Jemielniak z Akademii Leona Koźmińskiego, socjolog i badacz sieciowej dezinformacji. Na wstępie zauważa, że "pomimo deklarowanych działań moderacyjnych, algorytmy największych platform nadal eksponują treści dezinformacyjne", a podstawowym mechanizmem, który za tym stoi, jest "konflikt między modelem biznesowym a jakością informacji".
"Algorytmy są zaprojektowane do maksymalizacji czasu spędzonego na platformie i interakcji. Treści dezinformacyjne często generują silniejsze reakcje emocjonalne, co przekłada się na wyższe zaangażowanie" - tłumaczy działanie "ekonomii uwagi". I dodaje:
Można powiedzieć, że platformy społecznościowe korzystają na tym, że znajdują się na nich emocjonalne, choć nieprawdziwe treści.
Zgadza się z tym także dr Katarzyna Bąkowicz, medioznawczyni z Uniwersytetu SWPS i członkini rządowej komisji ds. wpływów rosyjskich i białoruskich. "Platformy społecznościowe żyją dzięki naszej uwadze oraz temu, że spędzamy na nich coraz więcej czasu. Nie ma większego znaczenia, co tam robimy. Grunt, żeby przebywać tam jak najdłużej, ponieważ wtedy stajemy się odbiorcami większej liczby reklam" - pisze w komentarzu dla Konkret24.
"Zatrzymanie uwagi użytkownika nie jest jednak takie proste i odbywa się nie zawsze etycznie. Praktyki platform często opierają się na mechanizmach uzależnienia oraz pobudzenia emocjonalnego. Tym, co nas w taki stan wprowadza, są treści, które właśnie dużo emocji zawierają. Często są to teksty, zdjęcia lub filmy, w których wyrażane są na przykład polaryzujące emocje albo dezinformacja, różnego rodzaju manipulacje" - zauważa ekspertka. I stwierdza:
Algorytmy nie patrzą na prawdziwość treści, ale jej zasięg i klikalność, które sukcesywnie wzmacniają. Dlatego platformy społecznościowe same z siebie nie będą miały interesu w tym, abyśmy chcieli weryfikować fakty, czy spokojnie przeglądać publikowane treści. To wiązałoby się z dobrowolną rezygnacją z zysków.
Źródło: Konkret24
Źródło zdjęcia głównego: Shutterstock