Social media
Firmy z branży IT: postęp w walce z treściami związanymi z terroryzmem
Przedstawiciele Twittera, YouTuba i Facebooka w środę zapewnili Kongres USA o postępach w walce z treściami związanymi z terroryzmem. Twitter pracuje również nad powiadomieniem użytkowników, którzy weszli w kontakt z dezinformacj.
Wysoko postawieni pracownicy amerykańskich platform społecznościowych byli pytani przez członków senackiej komisji ds. handlu, nauki i transportu o działania podejmowane w ramach walki z dezinformacją (między innymi spambotami i rosyjską propagandą) i treściami ekstremistycznymi, w tym działaniami rekrutacyjnymi i sprzedażą broni.
Dyrektor Twittera ds. polityki publicznej Carlos Monje powiedział przedstawicielom Kongresu, że od 2017 roku firmie udało się podwoić skuteczność systemu zwalczającego "złośliwie zautomatyzowane" konta z 2 mln do 4 mln na tydzień. Zaznaczył, że od 2015 roku pracownicy Twittera brali udział w ponad stu sesjach treningowych dotyczących walki z ekstremistycznymi treściami, a algorytmy firmy pozwoliły na zablokowanie 1,1 mln kont powiązanych z terroryzmem, z czego ponad pół miliona tylko w minionym roku. Monje dodał, że 75 proc. kont jest zawieszanych jeszcze przed napisaniem pierwszego tweeta.
Monje zapewnił przedstawicieli Kongresu, że Twitter "pracuje nad ustaleniem i indywidualnym powiadomieniem" użytkowników platformy, którzy w trakcie amerykańskich wyborów prezydenckich 2016 roku wyświetlili treści zamieszczane przez łączoną z Kremlem grupą Internet Research Agency. Podobne działania podjął w listopadzie Facebook, który uruchomił w tym celu specjalną stronę dostępną za pośrednictwem Centrum Pomocy serwisu. Za jej pośrednictwem użytkownicy mogą sprawdzić, czy wchodzili w interakcje ze stronami powiązanymi z rosyjską kampanią propagandową.
Kierująca globalną polityką Facebooka Monika Bickert powiedziała, że zautomatyzowany system rozpoznający treści na podstawie porównań tekstu i obrazu usuwa z serwisu 99 proc. materiałów propagandowych Państwa Islamskiego (IS) oraz Al Kaidy. Bickert dodała, że w walce z dezinformacją firma stosuje połączenie technologii i ludzkiego nadzoru. Zgodnie z październikowym zapowiedziami do końca 2018 roku Facebook ma podwoić liczbę pracowników zajmujących się bezpieczeństwem i ochroną z 10 tys. do 20 tys.
Od czerwca ubiegłego roku YouTube usunął ponad 160 tys. filmów zawierających brutalne treści ekstremistyczne i zawiesił około 30 tys. kanałów ze względu na łamanie przez nie reguł zabraniających publikowania treści powiązanych z działalnością terrorystyczną
Zasługę za ten wynik przypisała "bardziej restrykcyjnym przepisom, lepszemu egzekwowaniu tych zasad przez ludzi, a nie maszyny, oraz współpracy z zewnętrznymi ekspertami".
Downs wyjaśniła, że w usuwaniu treści zawierających przemoc należąca do firmy Alphabet platforma wideo polega na "połączeniu technologii i czynnika ludzkiego". Oprócz algorytmu, który wychwytuje 98 proc. zamieszczanych filmów zawierających nieodpowiednie treści, firma zatrudnia 10 tys. osób, do których obowiązków należy codzienne monitorowanie serwisu pod tym kątem.