W połowie listopada Facebook opublikował czwarty raport pokazujący, jak firma radzi sobie z moderacją treści i przestrzeganiem polityk społeczności. Platforma chwali się, że w ostatnim kwartale usunęła 3,2 miliarda fałszywych kont na Facebooku. Rośnie liczba usuwanych postów na Instagramie, związanych z organizacjami terrorystycznymi, ale także liczba wniosków władz państwowych o dane użytkowników. Jak się okazuje, w większości przypadków Facebook zgadza na ich przekazanie. Tak też jest w przypadku Polski.

Po raz pierwszy firma przedstawiła dane nie tylko dla Faceboooka, ale i dla aplikacji Instagram.

3,2 miliarda kont usuniętych w ciągu sześciu miesięcy

Jak wynika z raportu, od kwietnia do września 2019 Facebook usunął łącznie 3,2 mld kont, które naruszały zasady platformy. To ponad dwukrotnie więcej niż w tym samym okresie w 2018 roku, gdy usunięto 1,55 mld kont.

Rekordowy pod tym względem był pierwszy kwartał 2019 r., gdy Facebook usunął 2,2 mld fałszywych kont.

5 proc. aktywnych kont na Facebooku było fałszywe Fałszywe konta stanowiły około 5 proc. aktywnych kont w okresie kwiecień-wrzesień 2019 – czytamy w raporcie Facebooka. Liczba ta nie uwzględnia nieudanych prób założenia fałszywego konta, które Facebook udaremnił na etapie rejestracji.

Polityka platformy wyróżnia dwa rodzaje fałszywych kont: obraźliwe profile oraz osobiste profile reprezentujące biznes, organizację lub inny podmiot niebędący człowiekiem. Zgodnie z zasadami Facebooka, tego typu konta powinny istnieć na platformie jako strona, a nie profil osobisty.

Instagram po raz pierwszy w raporcie

Facebook pierwszy raz udostępnił dane o tym, jak radzi sobie z moderowaniem treści na Instagramie.

Raport omawia cztery kategorie materiałów łamiących polityki społeczności Instagrama i Facebooka: nagość i wykorzystywanie seksualne dzieci, propaganda terrorystyczna, treści zachęcające do samobójstwa i samookaleczeń oraz reklamy towarów podlegających regulacjom, m.in. nielegalnej sprzedaży broni palnej i narkotyków.

Raport nie podaje jednak informacji o liczbie fałszywych kont na Instagramie, które zostały usunięte ze względu na naruszenia regulaminu aplikacji.

Nicki Minaj nie będzie dodawać postów na Instagramie

Więcej wykrytych i usuniętych treści naruszających regulamin

Statystyki Instagrama pokazują, że w analizowanym okresie wzrosła liczba wykrytych i usuniętych treści związanych z organizacjami terrorystycznymi. W trzecim kwartale 2019 r. było to 107 tys. wpisów, a w kolejnym 133,3 tys. W tym samym czasie na Facebooku liczba podobnych treści zmalała o 700 tys. - z 5,9 mln w drugim kwartale, do 5,2 mln w trzecim.

Na Instagramie wzrosła liczba wykrytych i skasowanych materiałów pokazujących nagość oraz wykorzystywanie seksualne dzieci - z ponad 500 tys. w drugim kwartale 2019 do ponad 750 tys. w trzecim kwartale. W tym samym czasie na Facebooku usunięto ponad 18,5 miliona tego typu treści.

Raport przestawia statystyki moderacji treści mogących nakłaniać do samobójstwa i samookaleczeń. W okresie kwiecień-wrzesień 2019 na Instagramie usunięto 1,68 mln, a na Facebooku 4,5 mln wrażliwych treści, które mogłyby zachęcać użytkowników do samookaleczenia lub samobójstwa.

Od kwietnia do września 2019 na Instagramie usunięto także około 3 miliony postów reklamujących narkotyki oraz 95 tysięcy reklamujących broń.

Na Facebooku w tym samym okresie usunięto około 7 mln materiałów związanych tylko ze sprzedażą narkotyków oraz 4,8 miliona ze sprzedażą broni. Jest to ponad czterokrotnie więcej niż w okresie październik 2018 - marzec 2019, gdy Facebook usunął ponad 1,4 miliona materiałów uznanych przez firmę za promujące narkotyki i około 1,3 miliona dotyczących sprzedaży broni.

7 mln postów z mową nienawiści w trzy miesiące

Z największego portalu społecznościowego znika coraz więcej przykładów mowy nienawiści. W okresie kwiecień - czerwiec Facebook usunął 4,4 miliony materiałów uznawanych przez portal jako przejaw mowy nienawiści. W ciągu kolejnych trzeci miesięcy było to prawie dwa razy więcej - usunięto około 7 milionów postów.

Jak twierdzi Facebook, wynik trzeciego kwartału to efekt zmian w procesie wykrywania mowy nienawiści na portalu.

Rzecznik praw obywatelskich o walce z mową nienawiści

Od kwietnia 2019 r. systemy Facebooka automatycznie usuwają posty, które pasują do istniejących w bazie przykładów mowy nienawiści. Pozostałe przypadki potencjalnych przypadków tego zjawiska trafiają do zespołu recenzentów, którzy decydują, czy materiał powinien zostać usunięty - czytamy w raporcie.

Coraz więcej mowy nienawiści Facebook wykrywa i moderuje samodzielnie, zanim zostanie zgłoszona przez użytkowników. W drugim kwartale było to 70,5 proc. usuniętych treści będących mową nienawiści, a w trzecim kwartale 80,2 proc.

Rządy coraz częściej proszą o dane użytkowników Facebook udostępnia dane o swoich użytkownikach na prośbę władz państwowych. Jak deklaruje, robi to zgodnie z obowiązującym prawem i warunkami świadczenia usług przez platformę.

Z raportu wynika, że w pierwszym półroczu 2019 r. Facebook otrzymał 128 617 wniosków władz krajowych o dane użytkowników portalu. Jest to 16 proc. więcej niż w drugiej połowie 2018.

Facebook zgodził się na udostępnienie danych użytkowników w odpowiedzi na 73,6 proc. zgłoszeń otrzymanych między styczniem a czerwcem 2019. Największą liczbę wniosków złożyły w tym czasie Stany Zjednoczone (50 741), a następnie Indie (22 684), Wielka Brytania (7 721), Niemcy (7 302) i Francja (5 782).

"Media społecznościowe mają swoją ciemną stronę"

Gdy polskie władze pytają o dane

Prawie dwukrotnie zwiększyła się liczba wniesionych przez polskie władze próśb o dane użytkowników Facebooka. W drugiej połowie 2018 roku odnotowano 1960 takich wniosków z Polski, a w pierwszym półroczu 2019 pojawiło się ich 3 397 razy.

Jak informuje w raporcie, Facebook przekazał polskim władzom dane użytkowników w odpowiedzi na 56 proc. wniosków złożonych w okresie styczeń-czerwiec 2019.

Autor:  Gabriela Sieczkowska
Źródło:  Konkret24, Facebook; Zdjęcie głowne: Shutterstock

Pozostałe