Social media
Firmy z branży IT: postęp w walce z treściami związanymi z terroryzmem

Przedstawiciele Twittera, YouTuba i Facebooka w środę zapewnili Kongres USA o postępach w walce z treściami związanymi z terroryzmem. Twitter pracuje również nad powiadomieniem użytkowników, którzy weszli w kontakt z dezinformacj.
Wysoko postawieni pracownicy amerykańskich platform społecznościowych byli pytani przez członków senackiej komisji ds. handlu, nauki i transportu o działania podejmowane w ramach walki z dezinformacją (między innymi spambotami i rosyjską propagandą) i treściami ekstremistycznymi, w tym działaniami rekrutacyjnymi i sprzedażą broni.
Dyrektor Twittera ds. polityki publicznej Carlos Monje powiedział przedstawicielom Kongresu, że od 2017 roku firmie udało się podwoić skuteczność systemu zwalczającego "złośliwie zautomatyzowane" konta z 2 mln do 4 mln na tydzień. Zaznaczył, że od 2015 roku pracownicy Twittera brali udział w ponad stu sesjach treningowych dotyczących walki z ekstremistycznymi treściami, a algorytmy firmy pozwoliły na zablokowanie 1,1 mln kont powiązanych z terroryzmem, z czego ponad pół miliona tylko w minionym roku. Monje dodał, że 75 proc. kont jest zawieszanych jeszcze przed napisaniem pierwszego tweeta.
Monje zapewnił przedstawicieli Kongresu, że Twitter "pracuje nad ustaleniem i indywidualnym powiadomieniem" użytkowników platformy, którzy w trakcie amerykańskich wyborów prezydenckich 2016 roku wyświetlili treści zamieszczane przez łączoną z Kremlem grupą Internet Research Agency. Podobne działania podjął w listopadzie Facebook, który uruchomił w tym celu specjalną stronę dostępną za pośrednictwem Centrum Pomocy serwisu. Za jej pośrednictwem użytkownicy mogą sprawdzić, czy wchodzili w interakcje ze stronami powiązanymi z rosyjską kampanią propagandową.
Kierująca globalną polityką Facebooka Monika Bickert powiedziała, że zautomatyzowany system rozpoznający treści na podstawie porównań tekstu i obrazu usuwa z serwisu 99 proc. materiałów propagandowych Państwa Islamskiego (IS) oraz Al Kaidy. Bickert dodała, że w walce z dezinformacją firma stosuje połączenie technologii i ludzkiego nadzoru. Zgodnie z październikowym zapowiedziami do końca 2018 roku Facebook ma podwoić liczbę pracowników zajmujących się bezpieczeństwem i ochroną z 10 tys. do 20 tys.
Od czerwca ubiegłego roku YouTube usunął ponad 160 tys. filmów zawierających brutalne treści ekstremistyczne i zawiesił około 30 tys. kanałów ze względu na łamanie przez nie reguł zabraniających publikowania treści powiązanych z działalnością terrorystyczną
Zasługę za ten wynik przypisała "bardziej restrykcyjnym przepisom, lepszemu egzekwowaniu tych zasad przez ludzi, a nie maszyny, oraz współpracy z zewnętrznymi ekspertami".
Downs wyjaśniła, że w usuwaniu treści zawierających przemoc należąca do firmy Alphabet platforma wideo polega na "połączeniu technologii i czynnika ludzkiego". Oprócz algorytmu, który wychwytuje 98 proc. zamieszczanych filmów zawierających nieodpowiednie treści, firma zatrudnia 10 tys. osób, do których obowiązków należy codzienne monitorowanie serwisu pod tym kątem.
Jak odkryto blokady w pociągach Newagu?