Czy treści polityczne, które widzisz w mediach społecznościowych, wyświetlają się przypadkiem? Czy filmik z kontrowersyjną wypowiedzią polityka jest autentyczny? Czy wpis, którą polubiłeś lub polubiłaś, opublikowała prawdziwa osoba? Pytań o wpływ platform internetowych na demokrację jest wiele. Za ich pomocą można bowiem ingerować w postawy wyborców, nie tylko podczas kampanii wyborczej.
Przykładów siły oddziaływania platform i zagrożenia dla prawidłowości procesów demokratycznych jest wiele.
Jednym z bardziej znanych jest afera Cambridge Analytica. W skrócie: ta brytyjska firma zajmująca się doradztwem politycznym pobrała z Facebooka dane ok. 87 mln użytkowników serwisu. W piśmie do Komisji Europejskiej Facebook (obecnie Meta) oficjalnie potwierdził, że dane 2,7 mln użytkowników pochodzących z Unii Europejskiej zostały przekazane do Cambridge Analytica. Jak później relacjonowano, dane zostały zebrane m.in. aby wesprzeć prezydencką kampanię Donalda Trumpa w 2016 roku. Jak to się odbywało? Informacje zbierano za pomocą jednej z aplikacji działających na Facebooku, następnie wykorzystano je do stworzenia szczegółowych profili psychologicznych i behawioralnych osób. Wykorzystując te profile, stworzono i dostarczano wysoce spersonalizowane i celowane reklamy polityczne (tzw. mikrotargetowanie) klientom, w tym sztabowi wyborczemu Donalda Trumpa podczas kampanii prezydenckiej w 2016 roku. Dzięki temu mógł on wpłynąć na decyzje i zachowania wyborcze konkretnych użytkowników.
Minęła prawie dekada, a czy coś się zmieniło?
Rumunia, grudzień 2024 roku. Dwa dni przed drugą turą wyborów prezydenckich Sąd Konstytucyjny unieważnił wyniki pierwszego głosowania i nakazał ponowne przeprowadzenie całego procesu wyborczego. Pierwszą turę niespodziewanie wygrał niezależny, prawicowy polityk Calin Georgescu (uzyskał 22,94 proc. głosów), któremu przedwyborcze sondaże nie dawały nawet szans na wejście do drugiej tury. W uzasadnieniu sędziowie powołali się na raporty rumuńskich służb wywiadowczych. Wynikało z nich, że w trakcie pierwszej tury doszło do zorganizowanych cyberataków na systemy wyborcze, w które zaangażowany był zewnętrzny "aktor państwowy". Ponadto Georgescu miał złamać zasadę równości wyborów poprzez wykorzystanie "nieprzejrzystych i naruszających ordynację wyborczą technologii cyfrowych oraz sztucznej inteligencji w prowadzeniu kampanii". Rumuńska Służba Wywiadu (SRI) podała, że wykryła "agresywną kampanię promocyjną prowadzoną z obejściem krajowego ustawodawstwa w obszarze wyborczym, ale także wykorzystaniem algorytmów niektórych platform mediów społecznościowych w celu przyspieszenia wzrostu popularności Calina Georgescu". Jak opisywaliśmy w Konkret24, chodziło o działanie na platformie TikTok, gdzie rumuńskie służby wykryły sieć kont promujących Georgescu. Początkowo liczyła ona 25 tys. kont, które stały się bardzo aktywne na dwa tygodnie przed wyborami. Oprócz tego, jak podało rumuńskie MSW, ponad 100 influencerów, z ośmioma milionami obserwujących, zostało zmanipulowanych w celu promowania prawicowego kandydata.
Pokazujemy, jak wielkie platformy cyfrowe oddziałują na procesy demokratyczne i co można z tym zrobić.
Czytaj więcej: Afera Cambridge Analytica i Facebooka. Władcy nadziei i lęków. Czy jesteś ich marionetką?
Big Techy a Wielka Brytania
Przed wyborami parlamentarnymi w Wielkiej Brytanii w lipcu 2024 roku, brytyjski publiczny nadawca, czyli BBC alarmował o ingerencji w decyzje wyborcze przez algorytmy TikToka. Marianna Spring, dziennikarka BBC i ekspertka ds. dezinformacji opisała jak "młodym wyborcom na kluczowych polach walki wyborczej rekomenduje się fałszywe filmy generowane przez sztuczną inteligencję z liderami partii, dezinformacją i klipami przesyconymi obraźliwymi komentarzami". Poprzez promowane przez algorytmy treści do wyborców trafiały bezpodstawne doniesienia o tym, że ówczesny premier Rishi Sunak z Partii Konserwatywnej zmuszony był rozpisać wybory z powodu rzekomego skandalu, a także że Keir Starmer, lider opozycyjnej wtedy Partii Pracy odpowiedzialny jest za to, że pedofil Jimmy Savile nie został osądzony i uniknął sprawiedliwości. Oprócz tego BBC wykryło, że algorytmy polecały użytkownikom TikToka treści generowane przez sztuczną inteligencję, np. nieautentyczne wypowiedzi Sunaka o rzekomym wysyłaniu młodych Brytyjczyków na front ukraiński i do pogrążonej wojną Strefy Gazy.
Big Techy odegrały swoją rolę także przy wyjściu Wielkiej Brytanii z Unii Europejskiej. Jak poinformowało w lipcu 2018 roku BBC, w ramach kampanii referendalnej Vote Leave, wydano ponad 2,7 mln funtów na profilowane reklamy na Facebooku. Reklamy te często dotyczyły takich kwestii jak migracja czy prawa zwierząt, a BBC podało, że łącznie obejrzano je ponad 169 milionów razy. Komunikaty te m.in. przekonywały, że Unia Europejska "odbiera parlamentom narodowym władze ustalania polityki gospodarczej", że jeżeli Zjednoczone Królestwo pozostanie w UE to czeka je fala migracji zarobkowej z Turcji (po dołączeniu tego kraju do wspólnoty w przyszłości), że pieniądze przekazywane UE w ramach składek powinny być wydane na sprawy krajowe, w tym na system ochrony zdrowia. Dane o internautach, które poprzez Facebooka zwolennicy brexitu pobrali pomagały w profilowaniu i dostosowaniu konkretnych reklam, mających później zachęcić do głosowania w referendum za wyjściem kraju z UE.
BBC opisało też jak na samym początku kampanii Vote Leave rozpoczęła zbieranie danych internautów za pomocą konkursu. Polegał on na obstawieniu wyników wszystkich 51 meczów w mistrzostwach Europy w piłce nożnej w 2016. W zamian za oddanie swoich danych można było wygrać 50 mln funtów, ale szanse wygranej oszacowano na 1 do 5 tryliardów. "Jeden z osób pracujących przy Vote Leave określił ją wówczas jako potencjalny 'przełomowy punkt gry', ponieważ pozwoliłaby zebrać dane kontaktowe tysięcy potencjalnych wyborców, z których wielu normalnie nie byłoby zainteresowanych referendum" - podało BBC.
Wpływ na "integralność wyborczą" w Niemczech
Think tank Institute for Strategic Dialogue (ISD) opublikował w lipcu 2025 roku raport przygotowany przez konsorcjum dziesięciu organizacji w projekcie "FIMI Defenders for Election Integrity". W jego ramach przyjrzano się czterem krajom, w tym Niemcom, w kontekście zagrożeń procesów demokratycznych. Analiza dotyczyła wyborów federalnych w 2025 roku. Konsorcjum stwierdziło, że w okresie przedwyborczym w Niemczech "operacje wypływu", które prowadzone były za pomocą platform internetowych miały "wpływ na dyskurs demokratyczny i integralność wyborczą". Analiza wykazała:
Zagraniczni i krajowi aktorzy wykorzystywali istniejące podziały społeczne - szczególnie wokół kwestii migracji, niestabilności gospodarczej i tożsamości narodowej - poprzez prowadzenie skoordynowanych kampanii i wykorzystywanie platform cyfrowych do szerzenia dezinformacji.
ISD i współpracujące organizacje wskazały, że oprócz podsycania konfliktów społecznych media społecznościowe służyły do "rozpowszechniania nieprawdziwych narracji" i "manipulowania opinią publiczną". Wśród stosowanych do tego technik wymieniono m.in. rozpowszechnianie treści wygenerowanych przez sztuczną inteligencję, podszywanie się pod wiarygodne instytucje medialne i akademickie oraz szerzenie dezinformacji przez sieci botów.
Jednym z przykładów fałszywego przekazu, krążącego w sieci przed wyborami, na które uwagę zwróciły organizacje, były twierdzenia dotyczące kart do głosowania. Internauci mogli bowiem trafić na nagrania z doniesieniami, że w części lokali wyborczych na kartach nie ma możliwości zagłosowania na AfD i jej kandydatów. Twierdzenia te zostały uznane za fałszywe przez organizacje fact-checkingowe. Innym z wymienionych przykładów jest fałszywe twierdzenie o tym, że ówczesny kanclerz Olaf Scholz wezwał parlament do prowadzenia stanu wyjątkowego lub, że chce on pozwać władze Stanów Zjednoczonych za to, że jego dom w Los Angeles spłonął podczas pożarów.
"Kampanie dezinformacyjne często koncentrują się zarówno na kandydatach, jak i na samym procesie wyborczym (...). Fałszywe informacje dotyczące propozycji politycznych kandydatów i głównych tematów kampanii, takich jak migracja i zmiany klimatyczne, są powszechnie rozpowszechniane w czasie cykli wyborczych, podobnie jak sfabrykowane lub wprowadzające w błąd cytaty. Kandydaci Partii Zielonych byli szczególnym celem takich kampanii, często przedstawiani jako oderwani od rzeczywistości lub oskarżani o forsowanie szkodliwych programów - zwłaszcza w odniesieniu do polityki środowiskowej i wsparcia dla Ukrainy" - oceniło konsorcjum. Jak wykazał raport, skuteczną walkę z ingerencją w procesy demokratyczne w Niemczech utrudniło m.in. niewystarczające egzekwowanie sankcji i niedofinansowani regulatorzy, ale też "ograniczona przejrzystość w cyfrowej reklamie politycznej".
Ingerencja w polskie procesy wyborcze
Platformy internetowe wykorzystywano także do oddziaływania na proces wyborczy w Polsce. Jak opisywaliśmy w Konkret24 w kwietniu 2025 roku, ponadnarodowa organizacja non-profit Alliance4Europe, której celem jest wspomaganie demokracji w Europie, wydała raport na temat kolejnej fazy rosyjskiej operacji Doppelganger. Ujawniono podjęte w ramach niej próby ingerencji w trwającą w Polsce kampanię przed wyborami prezydenckimi. Przypomnijmy, Doppelganger (Sobowtór) to rosyjska operacja ujawniona we wrześniu 2022 roku przez organizację EU Disinfo Lab, zajmującą się śledzeniem dezinformacji w Europie. Jej celem jest manipulacja opinią publiczną, wzmacnianie podziałów między krajami wspierającymi Ukrainę, promowanie rosyjskich narracji i zniechęcanie do udzielania Ukrainie poparcia. W ramach tejże akcji Rosja wykupiła dziesiątki nazw domen internetowych podobnych do nazw domen używanych przez media.
Do kampanii dezinformacyjnej wykorzystano także platformy internetowe. Posłużyły one m.in. w dotarciu do polskojęzycznych internautów. Analiza Alliance4Europe, w której zajęto się także polską, objęła działania zidentyfikowane między 4 marca a 4 kwietnia 2025 roku, a więc w trakcie kampanii prezydenckiej. Dotyczyła ona 279 postów w serwisie X, które wykorzystano do podważania wyborów. Jak wykazali autorzy raportu, posty promowały artykuły opublikowane w tradycyjnych mediach, które są zgodne z prokremlowską narracją bądź interesami Kremla. Alliance4Europe wskazało, że "ten rodzaj zachowania jest wykorzystywany w szczególności w celu ukierunkowania na polskie wybory".
Główne cele działań dezinformacyjnych skierowanych m.in. w polskie społeczeństwo to jego podzielenie i podsycenie konfliktu wewnętrznego, podważanie wiarygodności i skuteczności przeciwników politycznych, np. Donalda Tuska lub Ursuli von der Leyen oraz promowanie narracji zgodnych ze strategiami rosyjskiej propagandy. Twórcy raportu stwierdzili, że "wydaje się, że SDA (Social Design Agency, firma stojąca za tą rosyjską operacją Doppelganger - red.) kupiła konta na platformie X. "Chociaż nie możemy tego zweryfikować, tak samo również oceniło niemieckie Ministerstwo Spraw Zagranicznych. Wydaje się, że większość kont została utworzona masowo około tej samej daty w lutym. Podczas gdy większość kont została stworzona na nowo, to niektóre z nich są datowane na 2011 rok, co wzmacnia naszą hipotezę, że niektóre z nich to kupione profile" - napisali analitycy.
Sytuację przedwyborczą ISD oceniło także w Polsce. W raporcie z sierpnia 2025 roku stwierdzono, że utrzymuje się "wieloaspektowe zagrożenie informacyjne dla procesu demokratycznego w Polsce". Twórcy raportu ocenili, że w okresie wyborczym szczególnie widoczne były narracje ukazujące kraje Unii Europejskiej i Ukrainę w negatywnym świetle. Ukrainę oskarżało się o szkodzenie Polsce oraz próbę manipulowania wyborcami. "Ta narracja strategicznie przedstawiała polskich polityków skrajnej prawicy jako obrońców suwerenności narodowej wobec postrzeganego wpływu zewnętrznego" - stwierdziło konsorcjum. Stwierdzono, że operacje wpływu, które miały na celu zmanipulowanie opinią publiczną prowadzono za pomocą platform internetowych:
Wykorzystywały one [operacje wpływu] kilka podatnych cech platform społecznościowych, które mogłyby być postrzegane jako potencjalne ryzyka systemowe, zgodnie z definicją zawartą w ustawie o usługach cyfrowych (DSA). Należą do nich łatwość tworzenia kont na X, brak zasad 'poznaj swojego klienta' (KYC) w reklamach [w serwisach] Mety oraz niespójna polityka i moderacja kont prowadzących kampanie polityczne na TikToku.
Analiza przedstawiona w raporcie obejmowała okres od kwietnia do czerwca 2025. Wymieniono cztery główne narracje, które dominowały w okresie przedwyborczym i które zdaniem autorów raportu były podsycane przez rosyjskie operacje wpływu: narracja antyukraińska, narracja antyunijna, narracja antyrządowa i narracja przeciwko państwom Zachodu. O tej trzeciej napisano: "Narracje antysystemowe mają na celu delegitymizowanie rządów demokratycznych, w tym rządu sprawującego władzę oraz instytucji publicznych, co prowadzi do niestabilności politycznej i braku zaufania społecznego".
O ile raport skupiał się głównie na rosyjskich operacjach wpływu, to jego autorzy zaznaczyli także, że "podczas gdy operacje wpływu stanowią ciągłe, strategiczne działania podejmowane przez aktorów w celu manipulowania odbiorcami i mogą obejmować liczne przypadki manipulacji informacją, należy zauważyć, że sama manipulacja informacją może również występować ad hoc, często oportunistycznie, i nie zawsze w ramach większej, zaplanowanej kampanii".
Twórcy raportu powołali się także na przeprowadzoną przez fundację Info Ops Poland analizę kampanii prezydenckiej, która wykazała "celowe działania aktorów sprzymierzonych z Rosją mające na celu zdyskredytowanie kontrkandydatów: Karola Nawrockiego i Rafała Trzaskowskiego". "Obydwaj atakowani byli przez te podmioty, przy czym zauważalny wzrost treści wymierzonych w Nawrockiego nastąpił przed drugą turą głosowania, podczas gdy negatywne narracje dotyczące Trzaskowskiego utrzymywały się" - napisało ISD. Stwierdzono, że strategia ta nie miała na celu wsparcia żadnego z kandydatów, a raczej "ukazanie całej sceny politycznej jako 'teatru marionetek', zagrażając w ten sposób stabilności państwa i demokratycznej legitymacji".
Info Ops Poland w opisie swojego raportu wskazało, że jedną z wykorzystanych do tego technik było "wzmacnianie przekazu przez sieci kont powiązanych oraz działania transgraniczne zwiększające zasięg fałszywych treści".
Przedwyborcze ostrzeżenia
Nie jest przypadkiem, że przed wyborami w demokratycznych krajach międzynarodowe organizacje, think tanki i inne instytucje alarmują o możliwej ingerencji w proces wyborczy za pomocą platform internetowych. Jak zauważyła w publikacji z 17 maja 2024 roku Fundacja Panoptykon, narzędziem, które pozwala ingerować w procesy wyborcze wielkim platformom, są ich algorytmy. To one sprzyjają popularności treści dezinformacyjnych, sensacyjnych i emocjonalnych. Wiadomości o takim charakterze potencjalnie wzbudzają większe zainteresowanie internautów, więc platformom po prostu opłaca się je promować.
Przed wyborami do Parlamentu Europejskiego w maju 2024 roku Panoptykon ostrzegał, że antyunijne i nacjonalistyczne treści promowane są przez algorytmy, "bo ślizganie się na fali sensacji i wykorzystywanie polaryzacji gwarantuje zasięgi". "W ten sposób, premiując w swoich systemach rekomendacyjnych najbardziej angażujące treści, platformy internetowe mieszają w europejskiej demokracji" - stwierdzono. Oceniono, że "Meta wykonuje ruchy pozorne, a nawet kontrskuteczne", a jako przykład podano ograniczenie zasięgów wszystkich treści o charakterze politycznym na Instagramie i Facebooku "nie różnicując ich na zmanipulowane i na treści wysokiej jakości".
O działaniach platform internetowych zakłócających demokratyczne wybory alarmował także przed wyborami do PE amerykański think tank Integrity Institute. "Wiemy z pierwszej ręki, jak to wygląda (...), kiedy platforma społecznościowa wzmacnia dezinformację od zagranicznych podmiotów lub pozwala na mowę nienawiści, która zagraża wolnym i uczciwym wyborom" - ostrzegali jego analitycy. Raport jest o tyle ważny, że stali za nim ludzie, którzy pracowali dla Mety w celu zapewnienia uczciwości wyborów. Integrity Institute, podobnie jak Panoptykon, jako narzędzie największego zagrożenia dla procesów przez Big Techy wskazuje algorytmy. Nazywa je "czynnikiem napędzającym dezinformację wyborczą".
Co oprócz algorytmów?
Sposoby, jak Big Techy mogą wpływać na procesy demokratyczne, opisała w raporcie "Media społecznościowe i wybory" z czerwca 2023 roku Fundacja im. Stefana Batorego. Po pierwsze, wskazano na reklamy polityczne i ich mikrotargetowanie (rozumiane jako "technika docierania z konkretnym i dostosowanym przekazem do stosunkowo wąskich grup odbiorców"). Twórcy raportu wskazali, że mikrotargetowanie pozwala nie tylko na mobilizację własnych wyborców, ale także demobilizację wyborców przeciwników. "Ekosystem reklamowy firmy Meta, wykorzystywany do emisji reklam na Facebooku, Instagramie, Messengerze, WhatsApp, a także w innych serwisach i aplikacjach (...), daje dziesiątki tysięcy kryteriów określania grupy docelowej. Obejmują one cechy demograficzne (płeć, wiek), lokalizację (z dokładnością do niewielkich obszarów i miejscowości), wydarzenia z życia (urodzenie dziecka, zmiana pracy, podróże, przeprowadzki itd.), zainteresowania (przypisywane użytkownikom na podstawie ich aktywności na Facebooku i innych stronach w sieci, a obejmujące kilkadziesiąt tysięcy różnych tematów) oraz zachowania (wykorzystywane urządzenia, oprogramowanie itp.)" - wyjaśniono.
Po drugie, fundacja wskazała na to, że treści polityczne i kampanijne w mediach społecznościowych nie są dziełem jedynie komitetów wyborczych, ale także pojedynczych użytkowników. Stwierdzono też, że problematyczne są grupy na Facebooku. Działania tamże, "odbywają się poza jakąkolwiek kontrolą organów wyborczych i bez możliwości śledzenia realnych kosztów ponoszonych przez partie. Co więcej, tego typu podmioty znacznie częściej angażują się w rozprzestrzenianie nieprawdziwych informacji i dezinformację".
Rozprzestrzenianiu nieprawdziwych informacji sprzyja polityka platform internetowych. Facebook, ale też Twitter (obecnie X - red.), YouTube czy TikTok nie zabraniają prowadzenia kont i stron w sposób anonimowy dla ich odbiorców. W konsekwencji często nie wiemy, kto administruje stronami, które mają setki tysięcy obserwujących, i kto odpowiada za treści, jakie one propagują. Wprawdzie istnieją mechanizmy zgłaszania nieprawdziwych czy szkodliwych treści, to jednak rzadko są one usuwane, a jeśli już, zajmuje to wiele czasu.
Analitycy Fundacji im. Stefana Batorego wskazali także na "brak efektywnych mechanizmów kontroli nad kampanią wyborczą w mediach społecznościowych", "ograniczonej przejrzystości finansowania" i ukrytej agitacji wyborczej, które negatywnie wpływają na uczciwość kampanii wyborczej i procesy demokratyczne.
Eksperci o wpływie platform na demokrację: "coraz większy"
Czy warto więc bezkrytycznie wierzyć w treści polityczne, na które natrafiamy na platformach internetowych? Jak duży jest wpływ Big Techów na demokrację? Czy można się przed nim chronić?
- Nie ulega wątpliwości, że zawartość platform internetowych i komunikacja za ich pośrednictwem ma coraz większy wpływ na wyniki wyborów, a co za tym idzie - cały system demokratyczny - ocenia w rozmowie z Konkret24 dr hab. Karina Stasiuk-Krajewska, profesor Uniwersytetu SWPS, badaczka Central European Digital Media Observatory (CEDMO), specjalizująca się w analizie struktury i wpływu dezinformacji. Wyjaśnia, że taką tezę postawić można z kilku powodów. - Po pierwsze, prawa wyborcze zyskują pokolenia, które wychowały się na platformach internetowych i dla których one są głównym kanałem komunikacji, ale także głównym i najbardziej zaufanym źródłem wiedzy o świecie. Na to wskazują liczne badania w Polsce i na świecie. Po drugie, w mediach społecznościowych obecne są formaty, które lepiej przemawiają do wielu osób, bo są "lżejsze", wymagają mniejszej koncentracji i mniejszych kompetencji komunikacyjnych. Chodzi tutaj o formaty krótkie, emocjonalne, żartobliwe - mówi.
Eksperta nazywa to "niepokojącym zjawiskiem" i wyjaśnia, jakie skutki ma takie spłycanie treści politycznych. - Skutki tej zmiany są istotne. Zmienia się sposób komunikowania polityki. Zaczyna ona być komunikowana jako żart, ironicznie. To może powodować negatywne konsekwencje. Na przykład takie, że potencjalny młody odbiorca nie do końca ma świadomość wagi decyzji, którą podejmuje. Poza tym idee polityczne naprawdę trudno jest pokazać w postaci żartu czy mema. One są znacznie bardziej skomplikowane i rozbudowane. Takie uproszczenie treści politycznych, redukowanie ich do żartu może prowadzić do manipulacji - mówi.
- Kolejny istotny aspekt wpływu platform na demokrację to oczywiście szerzenie dezinformacji. W mediach społecznościowych trafiamy na nią znacznie częściej niż w mediach tradycyjnych. I jasne, możemy dyskutować o jakości mediów tradycyjnych w Polsce i na świecie, ale z medioznawczego punktu widzenia oczywiste jest wciąż, że wobec tradycyjnych mediów są inne, znacznie wyższe oczekiwania społeczne, ale także o wiele bardziej rozbudowane ramy prawne (pogrubienia od redakcji). Ocenia:
Obserwujemy też taki mechanizm, że jeżeli w mediach tradycyjnych pojawia się dezinformacja, to odbiorcy szybciej to wyłapują, podchodzą bardziej krytycznie. Ten mechanizm nie działa jednak w przypadku mediów społecznościowych.
Dodaje, że zaufanie, którym odbiorcy darzą treści w mediach społecznościowych, wynika z tego, że prezentowane tam treści odbieramy jako pochodzące od innych "zwykłych ludzi". - Ona (treść, treści - red.) często faktycznie taka jest, ale też często pochodzi ze specjalnie tworzonych profili. Podczas gdy u odbiorcy wytwarza się poczucie bliskości, przez co wydaje mu się, że za przekazem stoi inny niezależny obserwator świata politycznego, tak naprawdę mamy do czynienia nie tylko ze spreparowaną treścią, ale także ze spreparowanymi profilami - przestrzega prof. Krajewska.
"Duże platformy społecznościowe są dziś często jedynym albo przynajmniej znaczącym źródłem informacji o świecie dla dużej grupy osób. Jednocześnie firmy te stosują różne mechanizmy, takie jak moderacja treści czy systemy rekomendacyjne, które pozwalają im wpływać na kształt debaty publicznej. W praktyce to przede wszystkim sposób działania algorytmów rekomendujących treści na wielkich platformach decyduje o tym, czy, kto i kiedy zobaczy dany materiał, jaki będzie miał on zasięg itd. To daje platformom ogromną władzę nad obiegiem informacji i w oczywisty sposób może rzutować na modelowanie naszych przekonań i światopoglądu, w tym preferencji politycznych" - wyjaśnia w komentarzu dla Konkret24
Ekspertka zwraca też uwagę na możliwe powiązania Big Techów z określonymi środowiskami politycznymi.
Nie da się też wykluczyć scenariusza, w którym platformy świadomie projektują swoje algorytmy tak, żeby podbijały zasięgi określonych polityków.
"To ryzyko stało się szczególnie duże, po tym jak największe amerykańskie korporacje technologiczne weszły w otwarty sojusz z obecną administracją Stanów Zjednoczonych, licząc prawdopodobnie na jakiś rodzaj 'dyplomatycznej ochrony' przed regulacjami UE, które mają na celu wzmocnienie ochrony praw użytkowników w Europie. Przez cybergigantów te przepisy są jednak odbierane jako 'inwazyjne', bo wymuszają ograniczenie różnych szkodliwych dla ludzi praktyk, a tym samym korektę przynoszącego dziś ogromne zyski modelu biznesowego wielkich platform" - wyjaśnia Głowacka
"Powinna nam się zapalać czerwona lampka i to non stop"
Doktor habilitowany Łukasz Szurmiński z Wydziału Dziennikarstwa, Informacji i Bibliologii Uniwersytetu Warszawskiego, zajmujący się tematyką propagandy i dezinformacji, zapytany o kwestię wiarygodności treści z platform internetowych przestrzega: - Przy informacjach, które docierają do nas z takich platform jak X, TikTok czy Facebook powinna nam się zapalać czerwona lampka i to non stop. Podkreśla:
Paradoks polega na tym, że bardzo wiele osób wskazuje media społecznościowe jako źródło informacji, a jak słuchamy oświadczeń przedstawicieli tych platform, to oni zawsze zrzucają odpowiedzialność z siebie i podkreślają, że nie są mediami, że nie należy ich traktować jako medium w klasycznym tego słowa znaczeniu, jako źródło informacji.
- Na przestrzeni kilku ostatnich lat dostaliśmy masę dowodów na to, że na platformach rozpowszechniane są bardzo różne treści, często o charakterze emocjonalnym, i to ma realny wpływ na funkcjonowanie demokracji. Podstawową przyczyną jest to, że z debaty publicznej całkowicie znikają racjonalne argumenty, a decyzje podejmowane są w oparciu o emocje, najczęściej nacechowane negatywnie. Tymczasem merytoryczne argumenty i dane, czy to dotyczy kwestii budżetu, kwestii uchodźców, kwestii wojen, kwestii szczepień, są wypierane - wyjaśnia.
Przypomina też, że część treści, z którymi spotykamy się w mediach społecznościowych, to komunikaty opłacone przez partie polityczne. Dzieli się własnym doświadczeniem: - Mam profil na Facebooku, który nie jest związany w ogóle z moją aktywnością zawodową, bo jest on poświęcony fotografii przyrody. Nie obserwuję na nim praktycznie nikogo, ale mimo to tam też ciągle wyświetlają mi się reklamy polityczne. W tym przypadku nie można do końca zwalić winy na algorytm. Natomiast treści politycznych, szczególnie związanych z prawicą i skrajną prawicą, pojawia mi się tam cała masa. A żeby było ciekawiej, to są to treści budujące emocjonalne narracje i mające na mnie jakoś wpływać - opowiada.
Czy da się ochronić nasze dane?
Raport "Spojrzenie za ekrany: badanie praktyk dotyczących danych w mediach społecznościowych i usługach streamingowych" Federalnej Komisji Handlu (FTC) dotyczył polityki prywatności największych portali społecznościowych: Amazona, Facebooka, X, YouTube, Snapchata, TikToka, Discorda, Reddita i WhatsAppa. Raport ten ujawnił, że wśród większości platform dane gromadzone były bez ograniczeń i bezterminowo. Niektóre z firm nie usuwały danych użytkownika na jego życzenie, a jedynie je anonimizowały. Dane niepełnoletnich na wielu tych platformach były gromadzone, przechowywane i traktowane tak samo jak dane dorosłych.
Raport FTC pokazuje, że duże firmy z branży mediów społecznościowych i streamingu wideo prowadziły szeroko zakrojoną inwigilację użytkowników, stosując słabe mechanizmy ochrony prywatności oraz niewystarczające zabezpieczenia dla dzieci i nastolatków.
Po co platformom nasze dane? Za ich pomocą są w stanie dopasować do nas treści, zatrzymując nas na dłużej, a więc monetyzując naszą uwagę. Ale nie chodzi tylko o niewinne filmiki rozrywkowe, czy reklamy ubrań dostosowane do naszych preferencji. Jak pokazuje przykład brexitu, czy afery Cambridge Analytica dane wykorzystywane są, aby celniej docierać do nas z komunikatami politycznymi, nie zawsze prawdziwymi.
- Taktyki podobne do tych znanych z Cambridge Analytica dzisiaj są wykorzystywane na szeroką skalę. Sposoby na pobieranie i wykorzystywanie naszych danych znacznie ewoluowały w trakcie tej dekady. Nasze życie coraz silniej toczy się w rytmie treści suflowanych nam przez firmy technologiczne - ocenia w rozmowie z Konkret24 Jakub Szymik z Fundacji Obserwatorium Demokracji Cyfrowej.
Podobnego zdania jest prof. Szurmiński:
Trzeba mieć świadomość, że platformy żyją z monetyzacji naszych danych i ze spieniężenia naszego czasu, który my im poświęcamy
Eksperci pytani o to, czy użytkownik platform internetowych może uchronić się przed wykorzystywaniem danych i działaniem algorytmu, zgodnie mówią, że nie jest to właściwie możliwe. - Zdaje się, że najlepszą ochroną jest próba zachowania dystansu do tego, co widzimy w sieci. Niestety jest to niezwykle trudne do osiągnięcia. Warto mimo wszystko pamiętać, że gdy mamy do czynienia z jakimiś treściami, szczególnie tymi angażującymi i emocjonalnymi to dobrze jest się zastanowić: Dlaczego ja to widzę? Z jakiego powodu takie treści pokazują się akurat mi? Czy ktoś mógł zapłacić, żebym zobaczył akurat ten konkretny post? Takie pytania to pierwszy krok w stronę tego, żeby nie wierzyć bezkrytycznie w treści, które podsuwają nam algorytmy na podstawie gromadzonych przez nas danych - radzi Jakub Szymik.
- O ile, gdy mówimy o klasycznym wyszukiwaniu treści w internecie za pomocą wyszukiwarek w przeglądarkach, to zawsze można przejść na tryb incognito. To jest dosyć proste, chociaż mimo to niewiele osób z tej opcji korzysta. Natomiast w mediach społecznościowych walka z selekcjonowaną pod nas treścią jest niezwykle trudna. Można oczywiście próbować racjonalnie podchodzić do treści, które oglądamy, ale tu się załącza mechanizm emocjonalny i często o tę racjonalność ciężko - ocenia prof. Szurmiński.
Profesor Stasiuk-Krajewska również ocenia, że "jesteśmy skazani na treści proponowane i pozycjonowane".
Oczywiście platformy dają nam - w mojej ocenie - raczej ograniczone możliwości ochrony naszej prywatności. Ale należy przede wszystkim pamiętać, że w ich interesie nie leży to, żeby naszą prywatność chronić.
- Ocena nie jest zbyt optymistyczna, bo ostatecznie sami, wchodząc w ten obszar komunikacji, po prostu godzimy się z panującymi tam warunkami. A warunki nie są ustanawiane przez nas jako użytkowników, tylko przez Big Techy - mówi ekspertka. Pytana o to, co można zrobić, aby zmniejszyć wpływ pozycjonowanych treści na naszą decyzyjność, odpowiada: - Kluczowe jest krytyczne myślenie. Jeżeli algorytm podsunie użytkownikowi jakąś treść, ale odbiorca pójdzie o krok dalej, wyjdzie ze swojej bańki, sprawdzi w innym źródle, popatrzy krytycznie, zastanowi się nad tym, co dostał, zdystansuje się od tego, to tak naprawdę ten algorytm przestaje działać, przestaje pełnić swoją funkcję, a na pewno jego efektywność spada.
Big Techy a ochrona demokracji
O ocenę dotychczasowych działań Big Techów na rzecz ochrony użytkowników i procesów demokratycznych zapytaliśmy prof. Szurmińskiego. - W ogóle nie są to działania wystarczające - stwierdził. - Zresztą ta sytuacja się pogorszyła znacząco w ostatnich dwóch, trzech latach. Przykładowo, nie pamiętam, kiedy ostatni raz w ciągu dwóch lat zgłoszenie konta rozpowszechniającego treści jawnie antysemickim albo rasistowskim przyniosło oczekiwane rezultaty. - ocenił ekspert. Paradoksalne według niego jest to, że:
Teraz mamy ściślejsze regulacje prawne i być może Big Techy muszą coś raportować, natomiast z perspektywy zwykłego użytkownika nie ma to na razie kompletnie żadnego znaczenia
Jako zalążek działań prowadzących do zwiększenia ochrony danych, a tym samym zmniejszenia wpływu Big Techów na procesy decyzyjne obywateli, dr Głowacka wskazuje na próby ustanowienia ściślejszych ram prawnych. "Od około dwóch lat obowiązują w UE różne regulacje, m.in. Akt o Usługach Cyfrowych (DSA), które mają ograniczać władzą technologicznych gigantów i chronić nas przed różnymi szkodliwymi skutkami ich działania. Nie jest to, rzecz jasna, remedium na wszystkie bolączki internetu, ale widzę w tych przepisach pewną szansę na wzmocnienie naszych praw w sieci - ocenia. Dodaje jednak, że "sukces tych regulacji zależy w dużej mierze od ich skutecznego egzekwowania. A z tym jest - póki co - różnie, zwłaszcza w Polsce, która wciąż nie wdrożyła tych przepisów". Zauważa, że opóźnienie we wdrażaniu aktu skutkuje, że nie ma "w pełni funkcjonującego Koordynatora usług cyfrowych – czyli nowego organu, który ma stać na straży praw polskich użytkowników wynikających z DSA i do którego moglibyśmy poskarżyć się na ewentualne naruszenia, np. inwazyjne reklamy wykorzystujące wrażliwe dane, brak efektywnych narzędzi wyjścia z pętli niechcianych treści, tzw. manipulacyjne interfejsy czy arbitralne ograniczanie zasięgów".
Ekspertka dodaje, że w jej ocenie, kluczowe jest sfinalizowanie prac nad ustawą wdrażającą zapisy DSA. "To nie sprawi oczywiście, że internet nagle stanie się w pełni bezpiecznym i przyjaznym miejscem, ale będzie to ważny krok w stronę zwiększenia odpowiedzialności cyberkorporacji" - ocenia.
Konsekwencje po latach
Wciąż pojawiają się nowe skutki afery Cambridgę Analytica. Niemal dekadę po jej wybuchu Mark Zuckerberg i 10 byłych i obecnych dyrektorów Mety zgodziło się zapłacić 190 mln dolarów akcjonariuszom firmy w ramach sądowej ugody. W 2018 roku akcjonariusze oskarżyli współzałożyciela Facebooka i pozostałych dyrektorów o obciążenie firmy miliardami dolarów w postaci grzywien (sama kara od amerykańskiej Federalnej Komisji Handlu wyniosła 5 mld dolarów) i kosztów prawnych wynikających z naruszenia przez nią przepisów dotyczących prywatności - nieodpowiednie zabezpieczenie danych.
W tym samym czasie kilkanaście tytułów mediów holenderskich - publicznych i prywatnych - w tym NOS (nadawca publiczny), NPO i Talpy, DPG, Mediahuis i "FD", po tygodniki "De Groene", "Vrij Nederland", "FTM" i "De Correspondent" we wspólnym apelu ostrzega, że dominacja globalnych platform technologicznych z USA i Chin podkopuje demokrację oraz zagraża niezależnej informacji w kraju. Media ostrzegają przed rosnącym wpływem globalnych gigantów technologicznych na krajowy ekosystem informacyjny. Platformy jak Google TikTok i Meta stanowią "poważne zagrożenie dla demokracji", ponieważ coraz bardziej kontrolują sposoby docierania do informacji (za Wirtualnemedia.pl).
Czytaj pozostałe części cyklu "Big Techy - big biznes na naszych umysłach" Część I: Liderzy dezinformacji. Dlaczego Big Techom się to opłaci? Część II: Big Techy i fake newsy. Skoro jest dobrze, to dlaczego jest źle?
Źródło: Konkret24
Źródło zdjęcia głównego: Shutterstock