Social media
Sztuczna inteligencja wykrywa mowę nienawiści w memach na Facebooku
Podczas pandemii koronawirusa, kiedy liczba pracowników moderacji Facebooka została znacząco ograniczona przez nakaz pozostawania w domu, koncern korzysta z rozwiązań sztucznej inteligencji do wykrywania mowy nienawiści w memach.
Według Facebooka, algorytmy sztucznej inteligencji obecnie wykrywają mowę nienawiści ze skutecznością sięgającą 89 proc.. W poprzednim kwartale skuteczność ich działania oscylowała wokół 80 proc. - twierdzi koncern.
W pierwszym kwartale tego roku Facebook według własnych danych podjął działania w stosunku do 9,6 mln wpisów naruszających zasady korzystania z jego platformy społecznościowej.
Skuteczność proaktywnego działania algorytmów maleje na Instagramie, który według Facebooka sprawia więcej trudności, gdy mowa o moderacji mowy nienawiści. Tam sztuczna inteligencja wykrywa szkodliwe treści z 44-procentową skutecznością - twierdzi wiceprezes Facebooka Guy Rosen cytowany przez AFP.
Aby wytrenować algorytmy do celów moderacji treści pod kątem mowy nienawiści, zespół Facebooka wykorzystał zbiór liczący 10 tys. memów.
Facebook utrzymuje, że jego narzędzia sztucznej inteligencji SimSearchNet potrafią nie tylko skutecznie identyfikować mowę nienawiści, ale również identyfikować kopie oryginalnych grafik i obrazów pomimo dokonanych na nich modyfikacji, które wcześniej mogły służyć unikaniu wykrycia przez algorytmy.
Zespół koncernu twierdzi, że narzędzie potrafi również identyfikować niezgodny z regulaminem platformy przekaz w wielu językach.
Według AFP w projekcie prac nad narzędziami sztucznej inteligencji dla moderacji biorą udział również zewnętrzni eksperci związani ze środowiskiem akademickim.