Była pracownica Facebooka powiedziała podczas przesłuchania przed Senatem Stanów Zjednoczonych, że produkty tego portalu "zaogniają podziały społeczne i osłabiają demokrację". Badania zachowań internautów potwierdzają, że algorytmy mediów społecznościowych sprzyjają rozpowszechnianiu mało jakościowych treści - w tym fake newsów.
Frances Haugen, która pracowała w Facebooku jako product manager w dziale zajmującym się dezinformacją, 5 października złożyła zeznania przed komisją amerykańskiego Senatu. 37-letnia Haugen przyznała, że to ona stała za wyciekiem informacji, na podstawie których "Wall Street Journal" opublikował głośną serię artykułów. Wynika z nich m.in., że wprowadzając algorytm treści, Facebook przyczynił się wzrostu polaryzacji w internecie; ponadto nie podjął kroków w celu zmniejszenia rozpowszechnianej w tym portalu niechęci do szczepień.
"Jestem tutaj, bo uważam, że produkty Facebooka szkodzą dzieciom, zaogniają podziały, osłabiają naszą demokrację i wiele więcej. Szefowie firmy wiedzą, jak uczynić Facebook i Instagram bezpieczniejszymi, ale nie zrobią koniecznych zmian, bo przedkładają swoje ogromne zyski ponad ludzi" - powiedziała Haugen podczas wysłuchania przed komisją ds. handlu w amerykańskim Senacie.
Zeznała, że spółka wraz z jej szefem Markiem Zuckerbergiem ma świadomość, iż jej algorytmy promują treści zawierające nienawiść i dezinformację, co - zdaniem Haugen - przyczyniło się m.in. do zbrodni na tle etnicznym w Mjanmie czy Etiopii. Dodała, że Instagram szkodzi nastolatkom, powodując ich uzależnienia i obniżenie poczucia własnej wartości oraz promuje szkodliwe nawyki żywieniowe i anoreksję. Haugen zwróciła się do prawodawców, by wprowadzili regulacje i nadzór wobec serwisów społecznościowych, podobnie jak zrobili to w przypadku przemysłu tytoniowego czy producentów opioidów.
Czy Facebook, Instagram i inne portale społecznościowe rzeczywiście tak mocno wpływają na ludzkie decyzje i zachowania? Potwierdzają to badania, o których w portalu The Conversation pisze Filippo Menczer - informatyk, profesor Uniwersytetu Indiany. Wyjaśnia, że działania mediów społecznościowych polegają w dużej mierze na analizie ludzkich zachowań. Algorytmy zwracają uwagę na wszelkie interakcje - polubienia, komentarze i udostępnienia. "Farmy trolli, organizacje rozpowszechniające prowokacyjne treści, wykorzystują ten fakt kopiując treści wywołujące szczególne zaangażowanie i publikując je jako własne, co pozwala im dotrzeć do szerokiego grona odbiorców" - tłumaczy naukowiec.
Sztuczna inteligencja wykorzystuje naturalne ludzkie zachowania
W artykule w The Conversation prof. Filippo Menczer pisze o koncepcji mądrości tłumu (ang. wisdom of crowds). Zgodnie z jej założeniem wykorzystanie sygnałów płynących z działań, opinii i preferencji innych osób prowadzi do podejmowania trafnych decyzji. Profesor tłumaczy, że w ciągu milionów lat ewolucji zasady te zostały zakodowane w ludzkim mózgu w postaci błędów poznawczych takich jak efekt czystej ekspozycji czy zasada podczepienia. "Jeśli wszyscy zaczynają biec, ty też powinieneś; może ktoś zobaczył zbliżającego się lwa i ucieczka może uratować ci życie. Możesz nie wiedzieć o co chodzi, ale mądrzej jest zadawać pytania później" - wyjaśnia Filippo Menczer.Ludzki mózg wyłapuje wskazówki z otoczenia i przekłada je na decyzje: podążania za zwycięzcą, za większością czy naśladowania sąsiada. Takie zachowania sprawdzają się w typowych sytuacjach, bo opierają się na solidnych założeniach. Wszak ludzie często działają racjonalnie i korzystają z doświadczenia. Gdy do gry wchodzi technologia, ludzie uzyskują dostęp do sygnałów pochodzących od znacznie większej liczby osób, w większości nieznanych. "Aplikacje sztucznej inteligencji intensywnie wykorzystują te sygnały popularności lub 'zaangażowania', od wyboru wyników wyszukiwania do polecania muzyki i filmów, od sugerowania przyjaciół do rankingu postów w kanałach informacyjnych" - opisuje Filippo Menczer.Wykorzystywanie przez algorytmy kryterium popularności treści, a nie np. pytań wprowadzanych do wyszukiwarek, może prowadzić do szkodliwych, niezamierzonych konsekwencji. Algorytmy takich serwisów jak Facebook, Instagram, Twitter, YouTube i TikTok biorą pod uwagę to, co użytkownik lubi, komentuje i udostępnia - innymi słowy: treści, w które się angażuje. "Celem algorytmów jest zmaksymalizowanie zaangażowania poprzez znalezienie tego, co ludzie lubią i umieszczenie tego na szczycie ich feedów" - wyjaśnia ekspert.Fałszywe założenieProfesor Menczer zauważa, że takie działanie algorytmów tylko pozornie wydaje się rozsądne. Skoro ludzie szukają wiarygodnych informacji, algorytmy powinny prowadzić ich do kolejnych treści wysokiej jakości. "Mądrość tłumu działa w tym wypadku na założeniu, że polecanie tego, co popularne, pomoże wysokiej jakości treściom 'piąć się w górę'" - pisze Menczer. Wraz ze współpracownikami postanowił sprawdzić, czy takie założenie jest prawdziwe.Profesor odsyła w tym miejscu do artykułu opublikowanego w 2018 w czasopiśmie "Nature". Wraz z innymi naukowcami Uniwersytetu Indiany przetestował wyżej opisane założenie. Zbadał algorytm, który szereguje elementy na podstawie jakości i popularności. "Okazało się, że - generalnie rzecz biorąc - popularność obniża ogólną jakość treści" - relacjonuje Menczer. Wynika to z faktu, że w przypadku, gdy relatywnie niewiele osób zetknęło się z daną treścią, zaangażowanie widoczne w mediach społecznościowych nie odzwierciedla faktycznej jakości tej treści. Natomiast odnotowując popularność danego materiału, algorytm zasugeruje go kolejnym użytkownikom. Właśnie w ten sposób szansę na rozpowszechnienie zyskują mało wiarygodne treści.Profesor Menczer zwraca uwagę, że dotyczy to nie tylko sztucznej inteligencji. Także ludzie im więcej razy zetkną się z jakąś ideą w sieci, tym bardziej prawdopodobne jest, że się z nią zgodzą i będą ją rozpowszechniać. "Kiedy media społecznościowe informują ludzi o tym, że dany temat staje się wirusowy, ich uprzedzenia poznawcze zaczynają działać i przekładają się na nieodpartą chęć zwrócenia na niego uwagi i podzielenia się nim" - pisze Menczer.EksperymentNastępnie prof. Filippo Menczer opisuje niedawny eksperymencie z wykorzystaniem aplikacji Fakey. Wyniki opublikowano w 2020 roku na stronie Harvard Kennedy School Misinformation Review. Fakey to gra, która symuluje medium społecznościowe, takie jak na Facebook czy Twitter. Gracze widzą mieszankę artykułów z różnych źródeł - mediów głównego nurtu, ale i mediów szerzących fake newsy, niesprawdzone teorie naukowe czy spiskowe. Otrzymują punkty za udostępnianie lub polubienie wiadomości z wiarygodnych źródeł oraz za oznaczanie artykułów o niskiej wiarygodności jako wymagające fact-checkingu."Stwierdziliśmy, że gracze są bardziej skłonni do dzielenia się wiadomościami, a mniej skłonni do oznaczania artykułów z mało wiarygodnych źródeł, gdy widzą, że wielu innych użytkowników zaangażowało się w te artykuły" - relacjonuje prof. Menczer (patrz wykres poniżej). "Mądrość tłumu zawodzi, ponieważ jest zbudowana na fałszywym założeniu, że tłum składa się z różnorodnych, niezależnych źródeł" - kwituje.Jakie są przyczyny popularności treści napotykanych w internecie? Profesor Menczer ma na to trzy wyjaśnienia:1) Ludzie mają tendencję do łączenia się z podobnymi do siebie osobami, a osoby, z którymi się nie zgadzają, mogą po prostu usunąć z listy internetowych znajomych. Sprzyja to tworzeniu homogenicznych społeczności.2) Ludzie wpływają nawzajem na swoje zachowania. "Pewien słynny eksperyment wykazał, że wiedza o tym, jaką muzykę lubią twoi przyjaciele, wpływa na twoje własne preferencje. Społeczne pragnienie dostosowania się zniekształca twój niezależny osąd" - tłumaczy prof. Menczer.3) Zaangażowanie internautów może być celowo wykorzystywane do manipulowania zachowaniami internautów. Wyszukiwarki aktywnie działają na rzecz tzw. farm linków, ale platformy mediów społecznościowych dopiero zaczynają poznawać swoje słabe punkty. Wykorzystują to manipulatorzy tworzący fałszywe konta, boty czy fałszywe sieci. "Zalewają sieć, by stworzyć pozory, że jakaś teoria spiskowa lub kandydat polityczny jest popularny, oszukując zarówno algorytmy platform, jak i uprzedzenia poznawcze ludzi" - wyjaśnia prof. Menczer.Spowolnić przepływ informacji?Jak zaradzić rozprzestrzenianiu się niskiej jakości treści i prymatowi popularności? "Platformy technologiczne są obecnie w defensywie. Podczas wyborów stają się coraz bardziej agresywne, usuwając fałszywe konta i szkodliwe dezinformacje. Jednak te wysiłki mogą przypominać grę w kotka i myszkę" - zauważa prof. Filippo Menczer. Zaleca inne, prewencyjne podejście. Polegałoby ono na "zwiększeniu tarcia" - chodzi o spowolnienie procesu rozprzestrzeniania się informacji. "Częste zachowania, takie jak automatyczne polubienia i udostępnienia, mogłyby być hamowane przez testy CAPTCHA, które wymagają reakcji człowieka, lub opłaty" - proponuje. Przekonuje, że nie tylko zmniejszyłoby to możliwości manipulacji, ale i skłoniłoby użytkowników internetu do zwracania większej uwagi na to, co widzą.Według prof. Menczera w rozwiązaniu problemu pomogłoby również dostosowanie algorytmów przez firmy z branży mediów społecznościowych tak, by w mniejszym stopniu polegały na popularności, a w większym na jakości. "Być może rewelacje sygnalistów dostarczą niezbędnego impulsu" - podsumowuje.
Autor: oprac. Krzysztof Jabłonowski / Źródło: Konkret24, The Conversation; Zdjęcie: Shutterstock
Źródło zdjęcia głównego: Shutterstock