Social media

Facebook znowu zawodzi. Zatwierdza reklamy z mową nienawiści tuż przed wyborami

Facebookowi grozi blokada w Kenii za brak reakcji na mowę nienawiści
Facebookowi grozi blokada w Kenii za brak reakcji na mowę nienawiści
Fot. Jon Tyson/ Unsplash/ Domena publiczna

Mimo ryzyka występowania realnej przemocy tuż przed wyborami w Kenii, Facebook nie jest w stanie wykryć mowy nienawiści w reklamach. Dotyczy to zarówno języka angielskiego, jak i suahili. Platforma zatwierdziła wszystkie przesłane do akceptu nienawistne treści.

Meta, do której należy Facebook i Instagram deklaruje często podejmowanie szeregu działań, by walczyć z takimi groźnymi zjawiskami na platformie jak dezinformacja, hejt czy mowa nienawiści. W praktyce bywa z tym różnie.

W Kenii – podobnie jak w poprzednich latach w Birmie i Etiopii – Facebook nie radzi sobie z wykrywaniem języka nienawiści, który realnie może przyczynić się do zagrożenia dla zdrowia i życia tamtejszej ludności.

Platforma chwaliła się rozwojem modeli sztucznej inteligencji, które mają wykrywać hejt, ale oficjalnie kuleje nawet możliwość moderowania treści w języku angielskim, z jakim teoretycznie serwis powinien radzić sobie najlepiej.

9 sierpnia br. Kenijczycy pójdą na wybory. Biorąc pod uwagę przeszłość (np. akty przemocy z 2007 roku, które miały miejsce po tamtejszych wyborach, gdy doszło do śmierci 1300 osób i ucieczki z domów tysięcy osób) Facebook realnie przyczynia się do wzrostu zagrożenia.

Czytaj też

Zatrważający wynik testu na mowę nienawiści

Organizacja pozarządowa Global Witness wraz z Foxglove przetestowały samodzielnie zdolność Facebooka do wykrywania mowy nienawiści przed wyborami na bazie dziesięciu przykładów z 2007 roku i wysyłając je do zatwierdzenia. W sumie przesłano dwadzieścia reklam do akceptacji Facebooka. Dotyczyły one dziesięciu rzeczywistych przykładów mowy nienawiści i odpowiadającego im tłumaczenia na angielski lub suahili (to dwa oficjalne języki tego kraju).

Wszystkie przykłady mowy nienawiści w reklamach w obu językach zostały zatwierdzone - poza jednym, który na początku został uznany za niezgodny z „zasadami gramatyki i wulgaryzmów”. Po drobnych poprawkach został jednak zaakceptowany. System bazujący na sztucznej inteligencji wykrył zatem cokolwiek, ale realnie – nie to, co trzeba było.

„Wszystkie przesłane przez nas reklamy naruszają Standardy społeczności Facebooka, kwalifikując się jako mowa nienawiści i nawoływania do przemocy na tle etnicznym. Większość treści była odczłowieczająca, porównując określone grupy plemienne do zwierząt i wzywając do gwałtu, rzezi i ścinania głów. Celowo nie powtarzamy użytych tu zwrotów, ponieważ są one bardzo obraźliwe” – stwierdziła organizacja Global Witness w swoim raporcie.

Reklamy przesłane do testu mogły zostać – nawet po ich zatwierdzeniu przez platformę – usunięte przed publikacją. Meta utrzymuje, że często są one oceniane za pomocą „ręcznych” narzędzi i zapewnia, że standardy na jej platformie są bardzo rygorystyczne.

Rzecznik Mety, pytany o komentarz do wyniku testu odpowiedział, że podjęto kroki, aby „wyłapać mowę nienawiści” i „nawołujące do przemocy treści w Kenii” oraz że „ponownie zintensyfikują swoje wysiłki przed wyborami”. Meta ma posiadać nawet „zespoły mówiące w języku suahili i proaktywną technologię wykrywania”. Co więcej, uważa też, że pomaga szybko i na dużą skalę usuwać szkodliwe treści i przyznaje, że zdarzają się przypadki, w których nie zauważają rzeczy i usuwają treści przez pomyłkę, „ponieważ zarówno maszyny, jak i ludzie popełniają błędy”.

Czytaj też

Facebook tłumaczy się z pozornych działań

Po publikacji wyników dochodzenia, Meta opublikowała nowe oświadczenie w sprawie przygotowań przed wyborami w Kenii. Podkreśliła skalę ich działania, jakie miały zostać podjęte, by usunąć treści o charakterze mowy nienawiści.

Zespół śledczy przesłał ponownie dwie kolejne reklamy, by sprawdzić czy cokolwiek w tym zakresie się zmieniło. Znowu zostały one zatwierdzone.

W Kenii z Facebooka korzysta ok. 20 proc. populacji, to jest ponad 12 milionów osób. Według badań, poziom treści o charakterze „etnicznej mowy nienawiści” oraz „podżegania do przemocy” wzrósł tam o 20 proc. w 2022 roku. To największy problem dla Mety, ale także Twittera. Teraz Facebook ma kilka dni na naprawienie działających na platformie mechanizmów, inaczej może zostać w Kenii zablokowany.

Czytaj też

Pozorne działania Facebooka

Do tej pory – mimo wielu deklaracji – Facebook w praktyce więcej obiecywał niż realizował, co pokazały choćby zeznania sygnalistki i byłej pracownicy firmy Frances Haugen. Z jej relacji wynikało, że Instagram należący do Facebooka niekorzystnie wpływa na zdrowie psychiczne nastolatków. Jej zdaniem platforma stawia na pierwszym miejscu własny interes, a nie bezpieczeństwo użytkowników.

Złożyła także skargę do amerykańskiej Komisji Papierów Wartościowych i Giełd, która odnosiła się do zamieszek w Waszyngtonie z 6 stycznia br., kiedy tłum protestujących szturmował Kapitol. Informatorka twierdzi, że Facebook świadomie zdecydował się zezwolić wtedy na dezinformację polityczną.

Haugen twierdzi poza tym, że koncern Zuckerberga przez lata wprowadzał w błąd inwestorów i polityków, przekonując, że podejmuje intensywne działania mające zapewnić bezpieczeństwo w jego serwisach, podczas gdy w rzeczywistości działał w tym obszarze bardzo opieszale, szkodząc nie tylko internautom, ale także demokracji w USA.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]

Komentarze

    Czytaj także