Trzy raporty wskazują na poważne problemy TikToka podczas kampanii prezydenckiej w Polsce: od stronniczości algorytmu, po niedostateczne oznaczanie wprowadzających w błąd treści. Prezentujemy kluczowe ustalenia, opinię eksperta oraz stanowisko samej platformy.
Przed drugą turą wyborów prezydenckich w Polsce oraz tuż po niej pojawiły się trzy zagraniczne analizy dotyczące roli TikToka w kampanii wyborczej. Wszystkie zwracają uwagę na istotne wyzwania związane z dezinformacją i stronniczymi treściami na tej platformie.
Skonsultowaliśmy się z ekspertem, aby ocenić wiarygodność tych raportów. W tekście przedstawiamy szczegóły ich metodologii, najważniejsze wnioski oraz wskazujemy na możliwe ograniczenia analiz. Swoje stanowisko wobec wyników przedstawił również TikTok.
Global Witness: "wyraźne przekrzywienie w treściach promujących dwóch kandydatów" na TikToku
Jedną z analiz przeprowadziła międzynarodowa organizacja pozarządowa, która zajmuje się badaniem naruszeń praw człowieka i praw środowiskowych, Global Witness. Tuż przed drugą turą wyborów prezydenckich w Polsce sprawdziła jakie treści TikTok rekomenduje użytkownikom zainteresowanym kandydatami na prezydenta - Rafałem Trzaskowskim i Karolem Nawrockim.
20 i 21 maja 2025 roku badacze z Global Witness założyli trzy neutralne politycznie konta na TikToku. Stworzone na potrzeby analizy persony były w różnym wieku: od osoby głosującej po raz pierwszy przez pokolenie Z po 40-latka. Następnie każdym z tych kont badacze zaczęli obserwować oficjalne profile Karola Nawrockiego i Rafała Trzaskowskiego, a potem spędzili pięć minut na oglądaniu materiałów obu kandydatów na TikToku. Przez kolejne 10 minut oglądali treści, które algorytm pokazał każdej z "osób" w zakładce "Dla Ciebie". I to te polecane przez algorytm treści przeanalizowali.
Z poleconych przez aplikację 112 nagrań, 73 dotyczyły polskiej sceny politycznej. W przypadku 61 z nich udało się określić, jakie poglądy polityczne przedstawiały. 67 proc. z 61 nagrań promowało skrajnie prawicowe lub nacjonalistyczne poglądy czy osoby, a pozostałe 33 proc. promowało poglądy centrowe i lewicowe.
Tak więc nowym użytkownikom TikToka, którzy w równym stopniu są zainteresowani Trzaskowskim i Nawrockim, algorytm proponował dwa razy więcej treści skrajnie prawicowych i nacjonalistycznych niż treści centrowych i lewicowych. Stało się tak, pomimo że w tym czasie oficjalne konto Rafała Trzaskowskiego miało większą popularność niż konto Karola Nawrockiego. Ten pierwszy kandydat miał o 12 tys. obserwujących więcej i prawie milion polubień więcej, zauważają autorzy analizy.
48 z rekomendowanych przez algorytm nagrań dotyczyło jednego z dwóch kandydatów na prezydenta. Pięć razy częściej były to treści wspierające kandydata prawicy Karola Nawrockiego niż centrowego Rafała Trzaskowskiego, wynika z eksperymentu Global Witness.
"Nasze wyniki wskazują, że TikTok nie podjął wystarczających działań, aby zapobiec priorytetowemu traktowaniu przez swoją platformę treści prawicowych, co ponownie stwarza ryzyko podważenia uczciwości wyborów krajowych" - przekonują analitycy Global Witness. TikTok krytycznie odniósł się do ich ustaleń. "Powiedzieli, że nasze dochodzenie było nienaukowe, wprowadzające w błąd, a wnioski z niego wyciągnięte były błędne. W szczególności stwierdzili, że skupianie się na jednym temacie nie odzwierciedla doświadczeń typowego użytkownika i że nasze interakcje z platformą, takie jak pomijanie postów niezwiązanych z polityką, mogą wypaczyć wyniki" - relacjonują badacze.
Ponieważ TikTok nie ujawnia szczegółów dotyczących działania swojego algorytmu, autorzy badania przyznają, że skupili się jedynie na zmiennych dostępnych do samodzielnej obserwacji, starając się jednocześnie utrzymać pozostałe czynniki na stałym poziomie, aby zapewnić możliwie najbardziej rzetelne wyniki.
FactCheck.BY ostrzega przed "skoordynowaną manipulację informacyjną"
Kolejną analizę opublikował 3 czerwca serwis fact-checkingowy FactCheck.BY, działający na Litwie. Starał się pokazać, że TikTok wpłynął na wyniki wyborów prezydenckich w Polsce.
Przeanalizowano jak trzej główni kandydaci na prezydenta Polski - Karol Nawrocki, Rafał Trzaskowski i Sławomir Mentzen - prowadzili swoje kampanie na TikToku. Do tego użyto danych o aktywności hasztagów politycznych na TikToku w okresie 31 marca – 2 czerwca 2025 roku. Analizowano siedem hasztagów: #nawrocki, #trzaskowski, #mentzen, #wybory2025, #wybory, #bylenietrzaskowski, #polityka. Łącznie przeanalizowano 53 357 filmów opublikowanych z 5 924 unikalnych kont.
Według autorów analizy przedstawia ona "niepodważalne dowody na zakrojoną na szeroką skalę, skoordynowaną manipulację informacyjną podczas wyborów prezydenckich w Polsce w 2025 roku". Dalej przekonują, że "operacja nosi cechy ingerencji w proces demokratyczny, charakterystyczne dla działań prowadzonych przez państwo lub profesjonalnie zorganizowane podmioty". I podają kluczowe ustalenia:
- 73 proc. analizowanych kont (4332 z 5924) wykazywało oznaki skoordynowanej aktywności o charakterze manipulacyjnym;
- 2,35 miliarda wyświetleń wygenerowały podejrzane treści na TikToku;
- ponad 70 proc. zbieżności hashtagów, co ma dowodzić koordynacji przekazów;
- publikacje były synchronizowane z kluczowymi momentami kampanii wyborczej, co według autorów sugeruje strategiczne zarządzanie operacją wpływu.
Autorzy zastrzegają, że badanie opiera się wyłącznie na publicznych danych i nie obejmuje ukrytych operacji wpływu, których wykrycie wymagałoby dostępu do danych wewnętrznych platform i służb wywiadowczych.
AI Forensics: TikTok ma problem z etykietowaniem postów sugerujących fałszerstwa wyborcze
Trzecią analizę opublikowała AI Forensics. To europejska organizacja non profit, która bada działanie algorytmów platform społecznościowych, ujawniając ich wpływ na politykę i debatę publiczną. Jej badacze sprawdzili, jak TikTok wdrażał system etykietowania treści związanych z wyborami prezydenckimi w Polsce, zgodnie z zaleceniami Komisji Europejskiej. Okazuje się, że platforma miała z tym problemy.
Badanie przeprowadzono 26 maja 2025 roku, czyli na siedem dni przed drugą turą wyborów prezydenckich. Wykorzystano nowe konto na TikToku, bez wcześniejszej historii oglądania, które dzięki użyciu VPN-u działało tak, jakby znajdowało się w Polsce. Z takiego konta wyszukiwano treści pod hasłami „#wybory” i "wybory" w przeglądarkowej wersji TikToka. Wyszukiwania prowadzono aż do momentu, w którym na stronie przestały się pojawiać nowe wyniki. Głównym przedmiotem analizy były posty zarzucające sfałszowanie wyborów, podważające ich wyniki czy wzywające do unieważnienia głosowania. Wykorzystano metodę snowballingu, czyli badanie kolejnych materiałów na podstawie powiązanych hashtagów, np. "#falszowaniewyborow".
Przeanalizowano ponad 1200 postów opublikowanych od 1 stycznia 2025 roku, które pochodziły z siedmiu kont. Spośród nich szczegółowo zbadano 23 filmy, które łącznie osiągnęły ponad 4,5 mln wyświetleń i zawierały zarzuty dotyczące nieprawidłowości wyborczych. Badacze sprawdzili, czy pojawia się na nich etykieta odsyłająca do oficjalnych informacji o wyborach, oraz czy spełniają wymagania dotyczące oznaczania treści generowanych przez sztuczną inteligencję. Test widoczności etykiet przeprowadzono nie tylko z Polski, ale też z sześciu państw, gdzie mieszka duża polska diaspora: Stany Zjednoczone (w dwóch miastach Nowy Jork i Chicago), Niemcy, Kanada, Brazylia, Wielkiej Brytania i Francja.
Raport AI Forensics wykazuje poważne luki w systemie etykietowania stosowanym przez TikTok. Spośród 23 nagrań na TikToku rozpowszechniających zarzuty o sfałszowaniu pierwszej tury wyborów, tylko pięć oznaczono etykietą. Okazało się, że etykiety informacyjne TikToka są widoczne tylko dla użytkowników korzystających z polskiego adresu IP. Dla Polaków mieszkających i głosujących za granicą treści te pozostawały nieoznakowane, co mogło wpływać na ich ocenę rzetelności wyborów.
Badacze zwracają uwagę też na brak spójności w używaniu etykiet. Nawet posty o podobnej treści publikowane na tym samym koncie i tego samego dnia, były oznaczane w różny sposób. Użycie popularnych hashtagów np. "#wybory2025" nie gwarantowało pojawienia się etykiety.
Kolejny problem dotyczy treści generowanych przez sztuczną inteligencję. Cztery z badanych postów zawierały wygenerowane przez AI obrazy, ale żaden nie był oznaczony, mimo że TikTok oficjalnie zobowiązuje się do ich tagowania.
Raport AI Forensics pokazuje, że mimo deklaracji i współpracy z instytucjami unijnymi, TikTok wciąż nie zapewnia deklarowanej ochrony przed dezinformacją wyborczą. To luka, która może mieć realne skutki dla opinii publicznej zwłaszcza w roku wyborczym, oceniają badacze. Rekomendują szereg zmian m.in. objęcie etykietowaniem większej liczby postów związanych z wyborami, proaktywną moderację, globalną widoczność etykiet, niezależnie od lokalizacji użytkownika czy skuteczniejsze oznaczanie treści AI.
O ocenę każdego raportu prosiliśmy dra Łukasza Olejnika, niezależnego konsultanta i badacza związanego z War Studies Department na King’s College London. W swojej analizie zwracał uwagę zarówno na mocne strony, jak i ograniczenia przedstawionych opracowań.
Najpierw odniósł się do analizy Global Witness. "Byłbym bardzo ostrożny z traktowaniem tych raportów jako jakościowych badań. Po pierwsze, metodologia nie jest w pełni przejrzysta, a sam proces testowy był ograniczony - oparto go na zaledwie trzech kontach (na pewnym etapie doszło czwarte), co czyni wnioski fragmentarycznymi i brak miejsca do wyciągania wniosków o charakterze ogólnym" - stwierdził dr Olejnik.
Jak zaznaczył "tego typu raporty mogą służyć jako element śledczy, wskazujący potencjalne konsekwencje działania algorytmu i stanowiący punkt wyjścia do dalszych analiz, ale nie jako samodzielny materiał dowodowy, zwłaszcza w kontekście prawnym". I dodał: "Sami autorzy zresztą uczciwie przyznają, że ich ustalenia są szczątkowe i mają ograniczenia. I ja się z tym zgadzam. W najlepszym wypadku to kolejna cegiełka w większym dochodzeniu KE dotyczącym przejrzystości i wpływu platform cyfrowych na demokrację".
"Gdyby jednak mój hipotetyczny student przyszedł do mnie z takimi wynikami, to uznałbym, że warto by spędził więcej czasu i na przykład znacznie zwiększył próbę badawczą" - dodał.
"Co do raportu AI Forensics, to nacisk rzeczywiście jest odmienny i wydaje się on solidniejszy pod względem metodologicznym, jednak wciąż brakuje szczegółów, które pozwoliłyby zweryfikować ustalenia. Ostatecznie sprowadza się to do aktu wiary" - stwierdził badacz.
TikTok źródłem informacji i... walki o młodego wyborcę
Skąd to zainteresowanie analityków i badaczy wpływem TikToka na kampanię wyborczą? Okazuje się, że TikTok w ostatnich latach stał się kluczowym polem bitwy o poparcie młodych wyborców w wielu krajach na świecie, także w Polsce.
Najczęstszym źródłem informacji o kampanii prezydenckiej dla polskich wyborców w wieku 18-25 lat był TikTok (43,7 proc.) - wynika z sondażu UCE Research dla portalu Onet. Wśród sympatyków Prawa i Sprawiedliwości TikTok był najpopularniejszym źródłem informacji o wyborach dla prawie połowy z nich (49,5 proc.). Natomiast wśród zwolenników Platformy Obywatelskiej 34,8 proc. wskazało TikToka, który był na drugim miejscu. Przed nim plasowała się telewizja (43 proc.).
Podobnie jest w całej Europie. Według sondażu Parlamentu Europejskiego z lutego 2025 roku dla 42 proc. Europejczyków w wieku od 16 do 30 lat media społecznościowe są głównym źródłem informacji o polityce i sprawach społecznych. TikTok był w tej kategorii drugi pod względem popularności (39 proc.), tuż za Instagramem (47 proc.). W 2024 roku ponad połowa użytkowników TikToka w Stanach Zjednoczonych (52 proc.) twierdziła, że regularnie używa aplikacji jako źródła informacji, wynika z badań Pew Research. 39 procent z nich to osoby w wieku 18-30 lat. 12 proc. brytyjskich nastolatków wskazało TikTok jako główne źródło informacji o świecie, podał krajowy regulator mediów Ofcom w raporcie o konsumpcji wiadomości w Wielkiej Brytanii w 2024 roku.
Algorytm TikToka i to, jakie treści podsuwa użytkownikom w czasie kampanii wyborczej, budzi zainteresowanie nie tylko badaczy, lecz także dziennikarzy. W połowie 2024 roku przed wyborami do brytyjskiego parlamentu BBC ujawniło, że młodym wyborcom na TikToku algorytm polecał kłamliwe filmy generowane przez sztuczną inteligencję. Szerzyły dezinformacje i obraźliwe przekazy na temat liderów Partii Pracy i Partii Konserwatywnej, wynika z ustaleń Marianny Spring, korespondentki BBC ds. dezinformacji i mediów społecznościowych. Do tego śledztwa BBC stworzyło 24 profile fikcyjnych osób na wszystkich głównych portalach społecznościowych. Profile odzwierciedlały podziały między brytyjskimi wyborcami.
Dwa lata wcześniej ta sama Marianna Spring sprawdziła, jakie treści TikTok i inne platformy podsuwają amerykańskim wyborcom przed wyborami do Kongresu. Stworzyła do tego pięć fikcyjnych kont o różnych poglądach politycznych. Eksperyment pokazał, że algorytmy częściej kierują dezinformację i treści radykalne do użytkowników o prawicowych sympatiach. Lewicowe profile otrzymywały głównie treści satyryczne i przekazy wzmacniające ich światopogląd.
Rzecznik TikToka o "kategorycznie nieprawdziwej" sugestii. Ekspert: "Nie twierdzę, że na TikToku nie było problemów"
O komentarz na temat trzech wyżej opisanych raportów poprosiliśmy firmę TikTok. Piotr Żaczko, rzecznik TikToka w Europie Środkowo-Wschodniej, stwierdził: "Sugestia, że TikTok faworyzuje jakąkolwiek partię polityczną lub promuje przekaz wspierający jakąkolwiek część sceny politycznej, jest kategorycznie nieprawdziwa. Przez cały okres wyborów wykazywaliśmy niezachwiane zaangażowanie w utrzymanie integralności wyborów na platformie oraz zapewnienie wszystkim bezpiecznej przestrzeni do swobodnej wymiany poglądów".
Po tym oświadczeniu przesłał też kilka uwag uzupełniających. Poinformował: "Od 15 kwietnia do dziś (czyli do 12 czerwca - red.) ponad 98 proc. treści naruszających nasze polityki Integralności i Autentyczności zostało przez nas usuniętych proaktywnie. Znacznie ponad 90 proc. z nich zostało usuniętych w ciągu 24 godzin od publikacji w serwisie". Podkreśla, że zaangażowanie TikToka w usuwanie takich treści zostało pozytywnie ocenione przez dyrektora NASK (Naukowa i Akademicka Sieć Komputerowa - Państwowy Instytut Badawczy).
"Niestety nie mieliśmy możliwości pełnego zapoznania się z raportem FactCheck.by; plik CSV, do którego odnosi się ten podmiot, nie jest dostępny do pobrania, a także brakuje szczegółowych informacji dotyczących metodologii badania" - informuje Piotr Żaczko. Według jego firmy "niektóre przytoczone dane (np. 2,35 mld wyświetleń, czyli ponad 60 w przeliczeniu na każdego obywatela Polski) nie są poparte żadnymi wyliczeniami i budzą pytania o jakość prezentowanych danych". Zwraca uwagę, że metodologia określona w raporcie jako "FIMI/DIMI score" nie jest oficjalnym modelem. "Przeanalizowaliśmy konta wymienione w artykule i nie znaleźliśmy jednoznacznych dowodów na nieorganiczne lub skoordynowane działania między nimi" – dodaje. Zdaniem rzecznika TikToka ten raport "wielokrotnie formułuje niepoparte dowodami tezy o bezpośrednim wpływie aktywności na TikToku na wyniki wyborów, nie przedstawiając przy tym rzetelnych dowodów czy jasnej analizy".
Natomiast co do raportu Global Witness rzecznik pisze, że "dochodzenie przeprowadzone przez Global Witness w sprawie wyborów w Polsce opiera się na tej samej wadliwej metodologii, co wcześniejsze raporty dotyczące innych wyborów". Informuje, że już wcześniej firma TikTok przekazywała Global Witness swoje uwagi, "lecz zostały one zignorowane". Dotyczą m.in. nienaukowej metodologii i braku zrozumienia, jak ogólnie działają systemy rekomendacyjne. "Eksperyment wyciąga wnioski na temat naszego algorytmu rekomendacji na podstawie anegdotycznej próby bazującej na zaledwie trzech kontach w jednorazowym teście, bez grupy kontrolnej czy szerszej próby" – ocenia. Uważa, że to wręcz "działania Global Witness prawdopodobnie wpłynęły na wynik eksperymentu poprzez oddziaływanie na sygnały, które kształtują sposób rekomendowania treści". I dodaje: "Nie wiemy również, jak Global Witness definiuje termin 'spektrum polityczne'. Klasyfikacja ideologii i partii politycznych, oparta na ich stanowiskach w różnych kwestiach - zazwyczaj wzdłuż osi lewica-prawica - nie jest ustandaryzowana. Różnice między takimi określeniami jak centrowy, centroprawicowy, konserwatywny czy prawicowo-populistyczny mogą być znaczące, a sposób rozróżniania tych kategorii ma duże znaczenie".
Ponieważ nie mamy możliwości oceny metodologii i sposobu przeprowadzania trzech opisanych raportów/badań, przedstawiamy tylko ich wyniki, uznając, że dają jednak pewien obraz tego, co się dzieje w mediach społecznościowych podczas kampanii wyborczych, jakie mechanizmy są tam wykorzystywane i jak mogą skutkować.
Doktor Łukasz Olejnik z War Studies Department w King's College, podsumowując swój komentarz na temat raportu AI Forensic, pisze: "Nie twierdzę, że na TikToku nie było problemów. Bo te faktycznie mogły być. Sam widziałem problematyczne rzeczy w ciszy wyborczej i była to bezpośrednia konsekwencja tego, jak działa ta platforma. Raport ten ma jednak pewną mocną stronę: może stanowić argument dla działania Komisji Europejskiej wobec TikToka".
Źródło: Konkret24
Źródło zdjęcia głównego: Shutterstock, Leszek Szymański/PAP