Reklama

Facebook znowu zawodzi. Zatwierdza reklamy z mową nienawiści tuż przed wyborami

Facebookowi grozi blokada w Kenii za brak reakcji na mowę nienawiści
Facebookowi grozi blokada w Kenii za brak reakcji na mowę nienawiści
Autor. Jon Tyson/ Unsplash/ Domena publiczna

Mimo ryzyka występowania realnej przemocy tuż przed wyborami w Kenii, Facebook nie jest w stanie wykryć mowy nienawiści w reklamach. Dotyczy to zarówno języka angielskiego, jak i suahili. Platforma zatwierdziła wszystkie przesłane do akceptu nienawistne treści.

Reklama

Meta, do której należy Facebook i Instagram deklaruje często podejmowanie szeregu działań, by walczyć z takimi groźnymi zjawiskami na platformie jak dezinformacja, hejt czy mowa nienawiści. W praktyce bywa z tym różnie.

Reklama

W Kenii – podobnie jak w poprzednich latach w Birmie i Etiopii – Facebook nie radzi sobie z wykrywaniem języka nienawiści, który realnie może przyczynić się do zagrożenia dla zdrowia i życia tamtejszej ludności.

Platforma chwaliła się rozwojem modeli sztucznej inteligencji, które mają wykrywać hejt, ale oficjalnie kuleje nawet możliwość moderowania treści w języku angielskim, z jakim teoretycznie serwis powinien radzić sobie najlepiej.

Reklama

9 sierpnia br. Kenijczycy pójdą na wybory. Biorąc pod uwagę przeszłość (np. akty przemocy z 2007 roku, które miały miejsce po tamtejszych wyborach, gdy doszło do śmierci 1300 osób i ucieczki z domów tysięcy osób) Facebook realnie przyczynia się do wzrostu zagrożenia.

Czytaj też

Zatrważający wynik testu na mowę nienawiści

Organizacja pozarządowa Global Witness wraz z Foxglove przetestowały samodzielnie zdolność Facebooka do wykrywania mowy nienawiści przed wyborami na bazie dziesięciu przykładów z 2007 roku i wysyłając je do zatwierdzenia. W sumie przesłano dwadzieścia reklam do akceptacji Facebooka. Dotyczyły one dziesięciu rzeczywistych przykładów mowy nienawiści i odpowiadającego im tłumaczenia na angielski lub suahili (to dwa oficjalne języki tego kraju).

Reklama

Wszystkie przykłady mowy nienawiści w reklamach w obu językach zostały zatwierdzone - poza jednym, który na początku został uznany za niezgodny z „zasadami gramatyki i wulgaryzmów”. Po drobnych poprawkach został jednak zaakceptowany. System bazujący na sztucznej inteligencji wykrył zatem cokolwiek, ale realnie – nie to, co trzeba było.

„Wszystkie przesłane przez nas reklamy naruszają Standardy społeczności Facebooka, kwalifikując się jako mowa nienawiści i nawoływania do przemocy na tle etnicznym. Większość treści była odczłowieczająca, porównując określone grupy plemienne do zwierząt i wzywając do gwałtu, rzezi i ścinania głów. Celowo nie powtarzamy użytych tu zwrotów, ponieważ są one bardzo obraźliwe” – stwierdziła organizacja Global Witness w swoim raporcie.

Reklama

Reklamy przesłane do testu mogły zostać – nawet po ich zatwierdzeniu przez platformę – usunięte przed publikacją. Meta utrzymuje, że często są one oceniane za pomocą „ręcznych” narzędzi i zapewnia, że standardy na jej platformie są bardzo rygorystyczne.

Rzecznik Mety, pytany o komentarz do wyniku testu odpowiedział, że podjęto kroki, aby „wyłapać mowę nienawiści” i „nawołujące do przemocy treści w Kenii” oraz że „ponownie zintensyfikują swoje wysiłki przed wyborami”. Meta ma posiadać nawet „zespoły mówiące w języku suahili i proaktywną technologię wykrywania”. Co więcej, uważa też, że pomaga szybko i na dużą skalę usuwać szkodliwe treści i przyznaje, że zdarzają się przypadki, w których nie zauważają rzeczy i usuwają treści przez pomyłkę, „ponieważ zarówno maszyny, jak i ludzie popełniają błędy”.

Reklama

Czytaj też

Reklama

Facebook tłumaczy się z pozornych działań

Reklama

Po publikacji wyników dochodzenia, Meta opublikowała nowe oświadczenie w sprawie przygotowań przed wyborami w Kenii. Podkreśliła skalę ich działania, jakie miały zostać podjęte, by usunąć treści o charakterze mowy nienawiści.

Zespół śledczy przesłał ponownie dwie kolejne reklamy, by sprawdzić czy cokolwiek w tym zakresie się zmieniło. Znowu zostały one zatwierdzone.

Reklama

W Kenii z Facebooka korzysta ok. 20 proc. populacji, to jest ponad 12 milionów osób. Według badań, poziom treści o charakterze „etnicznej mowy nienawiści” oraz „podżegania do przemocy” wzrósł tam o 20 proc. w 2022 roku. To największy problem dla Mety, ale także Twittera. Teraz Facebook ma kilka dni na naprawienie działających na platformie mechanizmów, inaczej może zostać w Kenii zablokowany.

Czytaj też

Pozorne działania Facebooka

Do tej pory – mimo wielu deklaracji – Facebook w praktyce więcej obiecywał niż realizował, co pokazały choćby zeznania sygnalistki i byłej pracownicy firmy Frances Haugen. Z jej relacji wynikało, że Instagram należący do Facebooka niekorzystnie wpływa na zdrowie psychiczne nastolatków. Jej zdaniem platforma stawia na pierwszym miejscu własny interes, a nie bezpieczeństwo użytkowników.

Reklama

Złożyła także skargę do amerykańskiej Komisji Papierów Wartościowych i Giełd, która odnosiła się do zamieszek w Waszyngtonie z 6 stycznia br., kiedy tłum protestujących szturmował Kapitol. Informatorka twierdzi, że Facebook świadomie zdecydował się zezwolić wtedy na dezinformację polityczną.

Haugen twierdzi poza tym, że koncern Zuckerberga przez lata wprowadzał w błąd inwestorów i polityków, przekonując, że podejmuje intensywne działania mające zapewnić bezpieczeństwo w jego serwisach, podczas gdy w rzeczywistości działał w tym obszarze bardzo opieszale, szkodząc nie tylko internautom, ale także demokracji w USA.

Reklama

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Operacje Wojska Polskiego. Żołnierze do zadań dużej wagi

Materiał sponsorowany

Komentarze (1)

  1. as123

    Nie ma czegoś takiego jak jezyk nienawiści zdefiniowanego. Można pod to podciągnąc wszystko co się nie podoba ludziom/organizacjom na poziomie wladzy. Najczescie jest to wykorzystywane do cenzury kontrowersyjnych pogladow slabszych w hierarchi grup spolecznych od ludzi u wladzy poltycznej albo finansowej. Co innego np lamanie praa poprzez wpisy zachecajace do przestepstwa albo wpisy ktore sa przestepstwem. Wszystko zmierza do tego zeby za 10-20 lat jak ktos napisze np ze wladza doprowadzila do braku wegla zeby taka osoba zostala ukarana albo np katolik ktory napisze ze homoseksualizm to grzech (bo tak jest w jego wierze to jest obiektywny fakt i prawda) rowniez byl ocenzurowany.

Reklama