Reklama

Social media

Rasistowskie algorytmy? Facebook bierny wobec problemu

Fot. Camera-man / Pixabay
Fot. Camera-man / Pixabay

Algorytmy moderacji treści na Facebooku są rasistowskie, a większość osób zatrudnionych w zespołach odpowiedzialnych za usuwanie treści takich, jak mowa nienawiści czy inne formy agresji werbalnej z platformy, to biali mężczyźni. Według dziennika „Washington Post”, koncern nie działał w sprawie algorytmów z obawy przed „konserwatywnymi partnerami”. 

Gazeta opisuje sytuację, w której zespół naukowców po dwuletnich badaniach algorytmów moderacji Facebooka - na zlecenie samej firmy) przedstawili jej zarządowi gotowy plan działania. Rezultatem badań miało być usprawnienie pracy całego systemu oprogramowania odpowiedzialnego za wykrywanie mowy nienawiści. Proces audytowy niezależnej grupy badaczy związanych z organizacjami obywatelskimi nazwano „Worst of the worst” („Najgorsze z najgorszych”).

Menedżerowie Facebooka, w tym - ówczesny wiceprezes ds. globalnej polityki publicznej Joel Kaplan - nie zdecydowali się na wdrożenie rekomendowanych działań, które mogły przełożyć się na zwiększenie bezpieczeństwa użytkowników portalu należących do mniejszości etnicznych. Powód? Obawiali się, że będzie się to wiązało ze sprzeciwem ze strony „konserwatywnych partnerów” firmy. 

W walce z uprzedzeniami rasowymi Facebook wybiera półśrodki

Była menedżerka Facebooka Tatenda Musapatike, która pracowała w dziale reklamy politycznej a obecnie zajmuje się wykorzystywaniem komunikacji cyfrowej na rzecz zwiększenia udziału społecznego w wyborach oceniła, że „nawet jeśli menedżerowie Facebooka nie mają żadnych uprzedzeń wobec osób o innym niż biały kolorze skóry, ich działania stawiają ich po stronie rasistów”. 

Jej zdaniem bezpieczeństwo i zdrowie kobiet wywodzących się z mniejszościowych grup etnicznych nie jest dla Facebooka tak ważne, jak „zadowolenie jego przyjaciół, którymi są bogaci, biali mężczyźni”.

Liczba użytkowników Facebooka należących do mniejszości etnicznych spada

Dowodzą tego badania, które w tym roku przeprowadzono na zamówienie firmy, a które zostały ujawnione przez sygnalistkę Frances Haugen wraz z innymi analizami. 

Według danych z lutego tego roku, liczba czarnoskórych użytkowników w ciągu miesiąca spadła o 2,7 proc. do poziomu 17,3 mln dorosłych osób. Najwięcej czarnoskórych korzystało z serwisu Marka Zuckerberga we wrześniu 2020 roku. 

Na to, że algorytmy moderacji portalu są niesprawiedliwe względem mniejszości etnicznych, a w szczególności osób czarnoskórych, od dawna zwracały uwagę organizacje obywatelskie. Facebook nie dzieli się z nimi wynikami wewnętrznych badań na temat działania algorytmów, nie przekazuje również informacji na temat nierównego traktowania osób przynależnych do mniejszości na platformie w zakresie ich ochrony przed mową nienawiści. 

Facebook broni swojej polityki moderacji

Rzecznik Facebooka Andy Stone w przesłanym dziennikowi oświadczeniu poinformował, że opisane przez gazetę badania pomogły zrozumieć firmie braki w działaniu technologii wspierającej moderację i zrozumieć, jakie formy mowy nienawiści użytkownicy należący do mniejszości etnicznych uważają za najgorsze. 

Stone wśród podejmowanych przez firmę działań na rzecz walki z mową nienawiści wymienił m.in. blokowanie grup promujących supremację białej rasy i treści, które powielały rasistowskie stereotypy, a także zmniejszenie widoczności mowy nienawiści do ok. 0,03 proc. wszystkich treści na Facebooku. 

Według Stone’a firma Marka Zuckerberga otwarcie podchodzi do współpracy z grupami działającymi na rzecz praw obywatelskich, jak i do wyników przeprowadzonego w ramach „Worst of the worst” - audytu działania algorytmów platformy. Jego zdaniem, koncern zaimplementował też część rekomendacji, które wynikały z projektu. 


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama

Reklama
Reklama

Komentarze