W połowie listopada Facebook opublikował czwarty raport pokazujący, jak firma radzi sobie z moderacją treści i przestrzeganiem polityk społeczności. Platforma chwali się, że w ostatnim kwartale usunęła 3,2 miliarda fałszywych kont na Facebooku. Rośnie liczba usuwanych postów na Instagramie, związanych z organizacjami terrorystycznymi, ale także liczba wniosków władz państwowych o dane użytkowników. Jak się okazuje, w większości przypadków Facebook zgadza na ich przekazanie. Tak też jest w przypadku Polski.
Po raz pierwszy firma przedstawiła dane nie tylko dla Faceboooka, ale i dla aplikacji Instagram.
3,2 miliarda kont usuniętych w ciągu sześciu miesięcy
Jak wynika z raportu, od kwietnia do września 2019 Facebook usunął łącznie 3,2 mld kont, które naruszały zasady platformy. To ponad dwukrotnie więcej niż w tym samym okresie w 2018 roku, gdy usunięto 1,55 mld kont.
Rekordowy pod tym względem był pierwszy kwartał 2019 r., gdy Facebook usunął 2,2 mld fałszywych kont.
5 proc. aktywnych kont na Facebooku było fałszywe Fałszywe konta stanowiły około 5 proc. aktywnych kont w okresie kwiecień-wrzesień 2019 – czytamy w raporcie Facebooka. Liczba ta nie uwzględnia nieudanych prób założenia fałszywego konta, które Facebook udaremnił na etapie rejestracji.
Polityka platformy wyróżnia dwa rodzaje fałszywych kont: obraźliwe profile oraz osobiste profile reprezentujące biznes, organizację lub inny podmiot niebędący człowiekiem. Zgodnie z zasadami Facebooka, tego typu konta powinny istnieć na platformie jako strona, a nie profil osobisty.
Instagram po raz pierwszy w raporcie
Facebook pierwszy raz udostępnił dane o tym, jak radzi sobie z moderowaniem treści na Instagramie.
Raport omawia cztery kategorie materiałów łamiących polityki społeczności Instagrama i Facebooka: nagość i wykorzystywanie seksualne dzieci, propaganda terrorystyczna, treści zachęcające do samobójstwa i samookaleczeń oraz reklamy towarów podlegających regulacjom, m.in. nielegalnej sprzedaży broni palnej i narkotyków.
Raport nie podaje jednak informacji o liczbie fałszywych kont na Instagramie, które zostały usunięte ze względu na naruszenia regulaminu aplikacji.
Więcej wykrytych i usuniętych treści naruszających regulamin
Statystyki Instagrama pokazują, że w analizowanym okresie wzrosła liczba wykrytych i usuniętych treści związanych z organizacjami terrorystycznymi. W trzecim kwartale 2019 r. było to 107 tys. wpisów, a w kolejnym 133,3 tys. W tym samym czasie na Facebooku liczba podobnych treści zmalała o 700 tys. - z 5,9 mln w drugim kwartale, do 5,2 mln w trzecim.
Na Instagramie wzrosła liczba wykrytych i skasowanych materiałów pokazujących nagość oraz wykorzystywanie seksualne dzieci - z ponad 500 tys. w drugim kwartale 2019 do ponad 750 tys. w trzecim kwartale. W tym samym czasie na Facebooku usunięto ponad 18,5 miliona tego typu treści.
Raport przestawia statystyki moderacji treści mogących nakłaniać do samobójstwa i samookaleczeń. W okresie kwiecień-wrzesień 2019 na Instagramie usunięto 1,68 mln, a na Facebooku 4,5 mln wrażliwych treści, które mogłyby zachęcać użytkowników do samookaleczenia lub samobójstwa.
Od kwietnia do września 2019 na Instagramie usunięto także około 3 miliony postów reklamujących narkotyki oraz 95 tysięcy reklamujących broń.
Na Facebooku w tym samym okresie usunięto około 7 mln materiałów związanych tylko ze sprzedażą narkotyków oraz 4,8 miliona ze sprzedażą broni. Jest to ponad czterokrotnie więcej niż w okresie październik 2018 - marzec 2019, gdy Facebook usunął ponad 1,4 miliona materiałów uznanych przez firmę za promujące narkotyki i około 1,3 miliona dotyczących sprzedaży broni.
7 mln postów z mową nienawiści w trzy miesiące
Z największego portalu społecznościowego znika coraz więcej przykładów mowy nienawiści. W okresie kwiecień - czerwiec Facebook usunął 4,4 miliony materiałów uznawanych przez portal jako przejaw mowy nienawiści. W ciągu kolejnych trzeci miesięcy było to prawie dwa razy więcej - usunięto około 7 milionów postów.
Jak twierdzi Facebook, wynik trzeciego kwartału to efekt zmian w procesie wykrywania mowy nienawiści na portalu.
Od kwietnia 2019 r. systemy Facebooka automatycznie usuwają posty, które pasują do istniejących w bazie przykładów mowy nienawiści. Pozostałe przypadki potencjalnych przypadków tego zjawiska trafiają do zespołu recenzentów, którzy decydują, czy materiał powinien zostać usunięty - czytamy w raporcie.
Coraz więcej mowy nienawiści Facebook wykrywa i moderuje samodzielnie, zanim zostanie zgłoszona przez użytkowników. W drugim kwartale było to 70,5 proc. usuniętych treści będących mową nienawiści, a w trzecim kwartale 80,2 proc.
Rządy coraz częściej proszą o dane użytkowników Facebook udostępnia dane o swoich użytkownikach na prośbę władz państwowych. Jak deklaruje, robi to zgodnie z obowiązującym prawem i warunkami świadczenia usług przez platformę.
Z raportu wynika, że w pierwszym półroczu 2019 r. Facebook otrzymał 128 617 wniosków władz krajowych o dane użytkowników portalu. Jest to 16 proc. więcej niż w drugiej połowie 2018.
Facebook zgodził się na udostępnienie danych użytkowników w odpowiedzi na 73,6 proc. zgłoszeń otrzymanych między styczniem a czerwcem 2019. Największą liczbę wniosków złożyły w tym czasie Stany Zjednoczone (50 741), a następnie Indie (22 684), Wielka Brytania (7 721), Niemcy (7 302) i Francja (5 782).
Gdy polskie władze pytają o dane
Prawie dwukrotnie zwiększyła się liczba wniesionych przez polskie władze próśb o dane użytkowników Facebooka. W drugiej połowie 2018 roku odnotowano 1960 takich wniosków z Polski, a w pierwszym półroczu 2019 pojawiło się ich 3 397 razy.
Jak informuje w raporcie, Facebook przekazał polskim władzom dane użytkowników w odpowiedzi na 56 proc. wniosków złożonych w okresie styczeń-czerwiec 2019.
Autor: Gabriela Sieczkowska / Źródło: Konkret24, Facebook; Zdjęcie głowne: Shutterstock
Źródło zdjęcia głównego: Shutterstock