Nie tylko najbliższe miesiące, ale cały 2024 rok będzie obfitował w wybory w wielu demokratycznych państwach. Umiejętność wykrywania już dziś rosyjskich, chińskich czy irańskich prób ingerencji w proces wyborczy w różnych krajach może pomóc przygotować się na takie zagrożenia - przestrzega amerykański kryptograf Bruce Schneier.
Na całym świecie proces wyborczy jest coraz bardziej zagrożony ingerencją zagranicznych graczy, którzy teraz do tego celu będą wykorzystywać sztuczną inteligencję (AI, artificial intelligence) - ocenia Bruce Schneier, amerykański kryptograf, ekspert ds. bezpieczeństwa teleinformatycznego i wykładowca Harvard Kennedy School. Swoje spostrzeżenia przedstawił w artykule pt. "Dezinformacja AI stanowi zagrożenie dla wyborów - nauka wykrywania rosyjskich, chińskich i irańskich ingerencji w innych krajach może pomóc USA przygotować się na 2024 rok". Tekst ukazał się na portalu The Conversation 29 września 2023 roku. Poniżej publikujemy jego obszerne tłumaczenie:
Gdy w 2016 roku Rosjanie rozpoczęli serię kampanii dezinformacyjnych w mediach społecznościowych, których celem była ingerencja w wybory prezydenckie w USA, był to początek nowej ery dla rządów chcących wpływać na procesy wyborcze innych krajów. W ciągu siedmiu lat wiele z nich - przede wszystkim Chiny i Iran - wykorzystywało media społecznościowe do wpływania na przebieg wyborów za granicą: zarówno w Stanach Zjednoczonych, jak i w innych częściach świata. Nie ma więc powodów, by oczekiwać, że w 2023 i 2024 roku będzie inaczej.
Pojawił się jednak nowy czynnik: generatywna sztuczna inteligencja (generative AI) i duże modele językowe (large language models, LLM). Umożliwiają one szybkie i łatwe tworzenie nieskończonych ilości tekstu na dowolny temat, w dowolnym tonie i z dowolnej perspektywy. Jako specjalista ds. bezpieczeństwa uważam, że jest to narzędzie idealnie nadające się do propagandy epoki internetu.
OGLĄDAJ W TVN24 GO: Rozwój i nadzór nad sztuczną inteligencją
Mamy do czynienia z czymś zupełnie nowym. ChatGPT zaprezentowano w listopadzie 2022 roku. Potężniejszy GPT-4 pojawił się w marcu 2023 roku. Inne sztucznie inteligencje do tworzenia tekstów i obrazów są mniej więcej z tego samego okresu. Nie wiadomo jeszcze, w jaki sposób technologie te zmienią dezinformację, jak skuteczne w tym będą i jakie efekty wywołają. Ale już niedługo się o tym dowiemy.
Maraton wyborczy 2024 roku na świecie
Sezon wyborczy wkrótce ruszy pełną parą w większości krajów demokratycznych. Od początku października 2023 roku do końca 2024 roku 71 proc. ludności żyjącej w krajach demokratycznych będzie głosować w wyborach krajowych. Wśród nich są Argentyna (pierwsza tura wyborów prezydenckich odbyła się tam 22 października) i Polska (u nas wybory odbyły się już 15 października - red.), wybory w Tajwanie odbędą się w styczniu 2024 roku, w Indonezji w lutym, w Indiach w kwietniu. Wybory do Parlamentu Europejskiego i w Meksyku są zaplanowane na czerwiec 2024. Stany Zjednoczone wybiorą nowego prezydenta w listopadzie 2024 roku.
Także w dziewięciu afrykańskich demokracjach, w tym RPA, będą wybory w przyszłym roku. Australia i Wielka Brytania nie mają jeszcze ustalonych dat, ale i tam wybory prawdopodobnie odbędą się w 2024 roku. Warto dodać, że tylko w Polsce w ciągu dziewięciu miesięcy odbędą się: wybory parlamentarne (15 października 2023 roku), wybory samorządowe (przewidziane na wiosnę 2024 roku) i wybory do Parlamentu Europejskiego (między 6 a 9 czerwca 2024 roku).
Wiele z tych wyborów ma duże znaczenie dla także państw zewnętrznych, które w przeszłości prowadziły już operacje wywierania wpływu w mediach społecznościowych. I tak Chinom szczególnie zależy na Tajwanie, Indonezji, Indiach i wielu krajach Afryki. Rosja interesuje się Wielką Brytanią, Polską, Niemcami i ogólnie UE. Wszyscy natomiast z uwagą patrzą na Stany Zjednoczone.
Mowa tu tylko o największych graczach. Bo w każdych krajowych wyborach w USA od 2016 roku pojawiał się jakiś inny kraj próbujący wpłynąć na ich wynik. Najpierw była to tylko Rosja, potem Rosja i Chiny, a ostatnio dołączył do nich Iran. Ponieważ wpływanie na obce państwa stało się tańsze, coraz więcej krajów może się włączyć do takich akcji. Narzędzia takie jak ChatGPT znacznie obniżają koszty produkcji i dystrybucji propagandy, sprawiając, że zdolność ta jest w zasięgu budżetu znacznie większej liczby krajów.
OGLĄDAJ W TVN24 GO: Regulacje dotyczące sztucznej inteligencji i AI w sektorze publicznym
Ingerencja w wybory
Kilka miesięcy temu uczestniczyłem w konferencji z udziałem przedstawicieli wszystkich agencji ds. cyberbezpieczeństwa w USA. Rozmawiali o oczekiwaniach dotyczących ingerencji w wybory w 2024 roku. Spodziewali się tradycyjnych graczy - Rosji, Chin i Iranu - oraz znaczącej nowości: "aktorów wewnętrznych". To bezpośredni rezultat niższych kosztów dezinformacji.
Rzecz jasna, prowadzenie kampanii dezinformacyjnej to coś więcej niż generowanie treści. Najtrudniejsza jest dystrybucja. Propagandysta potrzebuje szeregu fałszywych kont, na których może publikować posty, a także innych kont, by zwiększyć zasięg tych treści w głównym nurcie, gdzie mogą się stać viralowe. Firmy takie jak Meta znacznie lepiej identyfikują teraz takie konta i sprawniej je usuwają. W sierpniu 2023 roku Meta poinformowała, że usunęła 7704 konta na Facebooku, 954 strony na Facebooku, 15 grup na Facebooku i 15 kont na Instagramie powiązanych z chińską kampanią wpływu. Ponadto zidentyfikowała setki innych kont na TikToku, platformie X (dawniej Twitter) i na dwóch serwisach umożliwiających prowadzenie bloga - tj. LiveJournal i Blogspot. Była to jednak kampania, która rozpoczęła się cztery lata temu, czyli dezinformowała, zanim sztuczna inteligencja stała się szeroko dostępna.
Dezinformacja to wyścig zbrojeń. Zarówno atakujący, jak i broniący są coraz lepsi, ale także świat mediów społecznościowych się zmienia. Cztery lata temu Twitter był bezpośrednim kanałem dotarcia do mediów, a propaganda na tej platformie była sposobem na przechylenie narracji politycznej. Badanie Columbia Journalism Review wykazało, że większość głównych serwisów informacyjnych wykorzystywała rosyjskie tweety jako źródło stronniczych opinii. Ten Twitter, którego czytał praktycznie każdy wydawca informacyjny i każdy, kto tam publikował, już nie istnieje.
Wiele kanałów propagandowych przeniosło się z Facebooka na komunikatory takie jak Telegram i WhatsApp, co utrudnia ich identyfikację i usunięcie. TikTok to nowsza platforma, kontrolowana przez Chiny i bardziej nadaje się do krótkich, prowokacyjnych filmów - takich, których tworzenie jest znacznie łatwiejsze dzięki sztucznej inteligencji. A obecnie dostępne generatywne sztuczne inteligencje są połączone z narzędziami, które ułatwią również dystrybucję treści. Narzędzia generatywnej sztucznej inteligencji pozwalają również na używanie nowych technik produkcji i dystrybucji, na przykład na rozpowszechnianie na dużą skalę propagandy niskiej jakości. Jednak zreplikowane w tysiącach lub milionach miałyby o wiele większy wpływ.
Wyobraźmy sobie założone w mediach społecznościowych konto osobiste obsługiwane przez sztuczną inteligencję. Publikuje posty o fałszywym codziennym życiu, dołącza do grup zainteresowań i komentuje posty innych; ogólnie zachowuje się jak zwykły użytkownik. Od czasu do czasu, niezbyt często, pisze - lub rozpowszechnia - coś politycznego. Te boty persony, jak nazywa je informatyczka Latanya Sweeney, same w sobie mają znikomy wpływ. Ale powielane tysiącami lub milionami miałyby o wiele większy.
Dezinformacja na sterydach sztucznej inteligencji
To tylko jeden ze scenariuszy. Oficerowie wojskowi w Rosji, Chinach i innych krajach odpowiedzialni za ingerowanie w wybory prawdopodobnie już zlecają swoim najlepszym ludziom opracowanie innych scenariuszy. A ich taktyka będzie zapewne znacznie bardziej wyrafinowana niż w 2016 roku.
Kraje takie jak Rosja i Chiny mają historię testowania zarówno cyberataków, jak i operacji informacyjnych na mniejszych krajach, zanim przeprowadzą je na dużą skalę. Gdy to się dzieje, ważne jest, by umieć zidentyfikować te taktyki.
Przeciwdziałanie nowym kampaniom dezinformacyjnym wymaga umiejętności ich rozpoznawania, a to z kolei wymaga ich wyszukiwania i katalogowania już teraz. W świecie bezpieczeństwa informatycznego badacze zdają sobie sprawę, że dzielenie się metodami ataków i ich skutecznością jest jedynym sposobem na zbudowanie silnych systemów obronnych. Takie podejście sprawdza się w przypadku kampanii informacyjnych: im badacze dokładniej przeanalizują techniki stosowane w innych krajach, tym lepiej będą mogli bronić swoich.
OGLĄDAJ W TVN24 GO: Komputer kontra zbrodnia
Kampanie dezinformacyjne w erze sztucznej inteligencji będą prawdopodobnie bardziej wyrafinowane niż w 2016 roku. Sądzę, że Stany Zjednoczone muszą podjąć wysiłki w celu namierzenia i identyfikacji propagandy produkowanej przez sztuczną inteligencję poza granicami swojego kraju - chociażby w Tajwanie, gdzie kandydat na prezydenta twierdzi, że zniesławiono go za pomocą fałszywego nagrania audio. Jeśli tego nie zrobią, nie dostrzegą zagrożenia, gdy dotrze do nich. Niestety, badacze dezinformacji są atakowani i nękani.
Przykłady ze Stanów Zjednoczonych pokazują, jak te narzędzia już są wykorzystywane zarówno przez siły wewnętrzne, jak i zewnętrzne. W kwietniu tego roku, tuż po tym jak Joe Biden ogłosił, że będzie ubiegać się o reelekcję w 2024 roku, Republikański Komitet Narodowy (RNC) opublikował wideo stworzone w całości przy użyciu sztucznej inteligencji. Przedstawiało ono dystopijną wersję przyszłości, gdyby Biden ponownie został prezydentem USA w 2024 roku.
W czerwcu republikański kandydat na prezydenta Ron DeSantis w swojej kampanii wykorzystał wygenerowane przez sztuczną inteligencję zdjęcia byłego prezydenta Donalda Trumpa przytulającego Anthony'ego Fauciego, byłego doradcę medycznego Białego Domu. Na początku września tego roku analitycy Microsoftu ostrzegali przed działaniami chińskich agentów, którzy wykorzystali obrazy stworzone przez sztuczną inteligencję do naśladowania amerykańskich wyborców w internecie. Próbowali w ten sposób szerzyć dezinformację i prowokować dyskusję na temat dzielących społeczeństwo spraw politycznych w miarę zbliżania się wyborów w USA.
Być może wszystko skończy się dobrze. W erze generatywnej sztucznej inteligencji odbyło się kilka ważnych demokratycznych wyborów, w których nie było znaczących zagrożeń dezinformacyjnych: prawybory w Argentynie, pierwsza tura wyborów w Ekwadorze oraz wybory ogólnokrajowe w Tajlandii, Turcji, Hiszpanii i Grecji. Lecz im wcześniej będziemy wiedzieć, czego się spodziewać, tym lepiej poradzimy sobie z tym, co nadejdzie.
Źródło: Konkret24, The Conversation
Źródło zdjęcia głównego: Shutterstock