Social media
#CyberMagazyn: Hejt w polskiej sieci rośnie i ewoluuje. „Efekt egalitaryzacji środków przekazu”
W polskiej sieci od kilku lat rośnie zjawisko mowy nienawiści, przenosi się na kolejne elementy naszej rzeczywistości. Internetowi giganci twierdzą, że ich walka z hejtem jest coraz bardziej skuteczna. Ale eksperci alarmują, że mowa nienawiści staje się coraz bardziej powszechna, a polskie instytucje nie są w stanie nadążyć.
Mowa nienawiści – to określenie jest aktualnie znane większości polskich internautów. Zjawisko hejtu obecne w cyberprzestrzeni, służące jako narzędzie walki politycznej, rasowej czy światopoglądowej obejmuje coraz więcej dziedzin naszego życia. Przykładem jest niedawna fala hejtu, która dotknęła środowisko medyczne w związku z ich walką z pandemią koronawirusa.
O tolerowanie mowy nienawiści są oskarżane największe koncerny internetowe. Co prawda takie serwisy jak Instagram czy Twitter deklarują podejmowanie nowych działań w walce z hejtem, jednak zdaniem ekspertów nie są to odpowiednie metody, choćby w przypadku usuwania treści o charakterze antysemickim.
Na istotę mowy nienawiści i konieczność zwalczania tego zjawiska zwracają uwagę rozmaite organizacje społeczne i niektóre instytucje państwa. W rozmowie z CyberDefence24.pl biuro Rzecznika Praw Obywatelskich podkreśla, że RPO już dawno przesłał do rządu rekomendacje dotyczące walki z hejtem.
Wśród tych postulatów znalazło się m.in.:
- Ściganie z urzędu przestępstw motywowanych uprzedzeniami ze względu na niepełnosprawność, wiek, orientację seksualną i tożsamość płciową
- Karalność samego członkostwa w organizacjach promujących lub podżegających do nienawiści rasowej
- Wprowadzenie ustawowej definicji mowy nienawiści
- Utworzenie kodeksów dobrych praktyk przez dostawców usług internetowych i organizacje pozarządowe
- Uświadomienie administratorów komercyjnych internetowych portali informacyjnych o obowiązku moderowania, filtrowania i usuwania komentarzy, które mogą być mową nienawiści
RPO przyznaje w korespondencji z nami, że do tej pory strona rządowa nie zareagowała na rekomendacje, a wszystkie sugestie pozostają nadal aktualne.
Większe zrozumienie dla walki z hejtem
Jaka jest obecna diagnoza dotycząca ewolucji mowy nienawiści w polskiej sieci? W jakim kierunku zmierza hejt i jakie mogą być skuteczne metody powstrzymania tej fali?
Marcin Olender, manager ds. polityki publicznej Google w Europie Środkowo-Wschodniej w rozmowie z CyberDefence24.pl zwraca uwagę na kilka różnych wątków, związanych głównie z treściami na platformie YouTube.
„Największą zaletą internetu jest jego otwartość i to, że możemy w sieci znaleźć różnorodne treści – zaznacza na początek Marcin Olender. - Dla nas najważniejsze w tym wszystkim jest, aby nasze produkty zapewniały bezpieczeństwo, a platforma YouTube chroniła twórców, widzów i partnerów, dlatego mamy jasne zasady i wytyczne dla społeczności, w tym te dotyczące mowy nienawiści. Na bieżąco weryfikujemy zasady YouTube – chcemy mieć pewność, że wytyczamy właściwe granice. Przyglądaliśmy się uważnie naszemu podejściu do treści nacechowanych nienawiścią we współpracy z dziesiątkami ekspertów z zakresu ekstremizmu, suprematyzmu, praw obywatelskich i wolności słowa.”
Według wyjaśnień managera Google’a w konsekwencji wprowadzono ostatnio nową zasadę w polityce zwalczania mowy nienawiści.
„Zakazaliśmy publikacji takich materiałów, w których dowolną grupę ludzi definiuje się jako lepszą, by uzasadnić dyskryminację, segregację lub ostracyzm innej grupy ze względu na takie cechy, jak wiek, płeć, rasa, kasta, religia, orientacja seksualna lub status weterana – wylicza Olender. - Rozszerzamy również nasze wytyczne, aby lepiej egzekwować zasady dotyczące niepełnosprawności fizycznej lub psychicznej, jeśli są przedstawiane jako choroba lub nadają jej sens niedoboru psychicznego, bądź fizycznego lub jeśli są wykorzystywane jako uzasadnienie relacji podporządkowania. Nasz katalog grup chronionych przed atakiem słownym jest przy tym szerszy, niż przykładowo ten określony w polskim Kodeksie karnym. Zasady YouTube są określone w jednolity sposób dla całej światowej społeczności platformy i pod tym względem nie ma różnic pomiędzy poszczególnymi państwami. Różnice występują oczywiście na poziomie krajowych systemów prawnych - w niektórych jurysdykcjach pewne treści mogą być uznawane za nielegalne i my to respektujemy.”
Zdaniem naszego rozmówcy wydaje się, że - w ostatnim czasie, także w Polsce - można zaobserwować większe zrozumienie dla kwestii walki z mową nienawiści i potrzeby ustanawiania zasad, które nie dopuszczają takich treści.
„Technologia i określone zasady na pewno bardzo ułatwiają walkę z takimi treściami – przyznaje Olender. - Podejmujemy różne działania, aby lepiej egzekwować wytyczne dla społeczności. Ujednoliciliśmy system sankcji za publikowanie materiałów wymagających usunięcia, jak również udoskonaliliśmy nasz system powiadomień. Może to przyczynić się do weryfikacji niektórych twórców, dla których nie będzie miejsca na platformie. Tacy użytkownicy często przenoszą się na małe strony w internecie, gdzie takich zasad jeszcze nie ma”.
Jeżeli chodzi o trendy w ostatnim czasie i związane z tym zmiany zachodzące w polityce Google’a, to raczej dotyczą one kwestii dezinformacji, szczególnie tej związanej z COVID-19 i szczepionkami.
„Reagując na bezprecedensowy kryzys, jakim jest pandemia i związane z tym zagrożenia dla zdrowia publicznego, zaostrzyliśmy nasze zasady pod tym kątem – podkreśla nasz rozmówca. - YouTube nie zezwala na publikowanie treści rozpowszechniających nieprawdziwe informacje na temat choroby COVID-19, które są sprzeczne z opiniami ekspertów lokalnych instytucji zdrowia publicznego lub Światowej Organizacji Zdrowia (WHO). Odnosi się to do materiałów, które zaprzeczają informacjom pochodzącym od WHO lub lokalnych instytucji zdrowia publicznego na temat: leczenia, profilaktyki, diagnostyki, przenoszenia, wytycznych dotyczących zachowania dystansu i samoizolacji, istnienia COVID-19. Kwestie zdrowia publicznego są obecnie priorytetowe dla wszystkich z nas, dlatego także my poświęcamy sporo czasu na dalsze doskonalenie zasad i procedur walczących z takimi zjawiskami”.
Nasz rozmówca przyznaje, że rozwój technologii czyni walkę z mową nienawiści dużo skuteczniejszą, w tym jeśli chodzi o jej wykrywanie. Największym wyzwaniem pozostaje jednak skala treści w internecie.
„W każdej minucie na YouTube trafia 500 godzin różnych treści, dlatego zawsze korzystamy z kombinacji wzajemnie uzupełniających się działań maszyn i ludzi – tłumaczy Olender. - Komputery są lepsze w wyszukiwaniu naruszeń na dużą skalę, a nasi eksperci mogą podejmować decyzje co do ewentualnego zablokowania, które odpowiednio uwzględniają kontekst i bardziej złożone czynniki, których wciąż nie rozumieją maszyny. Obecnie ponad 94 proc. filmów, które zostają zablokowane z powodu naruszenia zasad jest wykrywanych w pierwszej kolejności przez automatyczne systemy. Z przesłanych na platformę filmów naruszających zasady, ponad 75 proc. jest usuwanych zanim osiągnie zaledwie 10 wyświetleń.”
Według eksperta należy przy tym podkreślić, że ogromna większość wspomnianego usuwania treści nie dotyczy mowy nienawiści - ponad 90 proc. kanałów usuwanych jest z powodu spamu lub wprowadzania w błąd, a zaledwie ok. 1 proc. z powodu rozpowszechniania mowy nienawiści. Podobnie w przypadku poszczególnych filmów, najczęstszymi powodami usunięcia są naruszania zasad w zakresie: ochrony małoletnich, nagości i treści seksualnych, przemocy i spamu.
Rosnąca fala
Konrad Dulkowski, prezes zarządu Ośrodka Monitorowania Zachowań Rasistowskich i Ksenofobicznych nie ma wątpliwości, że hejt w polskiej sieci wciąż się rozwija i przybiera coraz bardziej groźne formy, przy bierności państwowych instytucji.
Według naszego rozmówcy walka z nienawiścią w przestrzeni publicznej nie będzie nigdy efektywna, gdy jednocześnie będą ją szerzyć osoby cieszące się autorytetem. „Można zrobić tysiąc programów edukacyjnych, ale potem wychodzi biskup, czy poseł i posługuje się językiem dehumanizującym grupy społeczne - i cały wysiłek na nic”. - zauważa Dulkowski i zaznacza, że hejt istniał od dawna, ale wydawało się, że jest przywarą ludzi niewykształconych, a "osobie na pewnym poziomie wstyd było się przyznać do prymitywnych poglądów".
„Wszystko zmieniło się wraz z egalitaryzacją środków przekazu – podkreśla szef Ośrodka Monitorowania Zachowań Rasistowskich i Ksenofobicznych. - Teraz takie samo oddziaływanie na opinię publiczną ma ktoś prowadzący skrajnie prawicową "telewizję" na YouTube, jak profesor socjologii rozumiejący w jaki sposób nienawiść niszczy przestrzeń wspólną. A nawet hejter często ma większą grupę odbiorców. Bo przekaz >>bij, bo inny<< jest prostszy w odbiorze. Trafia do atawistycznej potrzeby obrony swojego stada. Tyle tylko, że ewolucyjnie już zeszliśmy z drzewa i nowoczesne państwo demokratyczne kieruje się normami uwzględniającymi prawa człowieka, a nie prawo silniejszego”.
Zdaniem eksperta, "populiści wolą odwoływać się do dzikiego w każdym z nas, chociaż chętnie wycierają sobie usta wzniosłymi hasłami o obronie cywilizacji".
„Jakie są dokładnie statystyki przestępstw z nienawiści - nie wiadomo – przyznaje Dulkiewicz. - Prokuratura Krajowa chroni tych danych, jak najgłębszej tajemnicy państwowej. Chociaż przez wiele lat był one publikowane, to teraz odmówiono nam dostępu do informacji publicznej. Sprawę zaskarżyliśmy do Wojewódzkiego Sądu Administracyjnego, czekamy na rozstrzygnięcie.”
Rozmówca ocenia, że ukrywanie przed obywatelami skali zjawiska "może wskazywać na to, że rząd wstydzi się wzrostu tych statystyk" – ocenia. "Tylko my, jako jedna organizacja, w 2020 roku złożyliśmy 455 zawiadomień do prokuratur w całej Polsce. Te stają na głowie, by sprawy umarzać. Przykładem niech będzie sprawa marszu ONR w Białymstoku w 2016 roku. Przez 5 lat uparcie odwoływaliśmy się od kolejnych decyzji o umorzeniu, sąd przyznawał nam rację, by wreszcie w 2021 skorzystać z prawa do złożenia subsydiarnego aktu oskarżenia. W wyniku procesu dwóch członków ONR zostało skazanych na kary pozbawienia wolności".
Sztuczna inteligencja lepsza od ludzi
W odpowiedzi na nasze pytania dotyczące obecnej sytuacji hejtu w polskiej sieci Facebook zwraca przede wszystkim uwagę na "skuteczne, zautomatyzowane sposoby walki z tym zjawiskiem".
„Opracowane przez nas Standardy Społeczności określają co jest, a co nie jest dozwolone na Facebooku – zaznacza serwis w nadesłanym nam komentarzu. - Nie pozwalamy na atakowanie ludzi na podstawie tego, kim są. Jako treści propagujące nienawiść rozumiemy wypowiedzi bezpośrednio atakujące inne osoby – a nie koncepcje czy instytucje – na podstawie tzw. cech chronionych, takich jak rasa, pochodzenie, narodowość, niepełnosprawność, wyznanie, kasta, orientacja seksualna, płeć biologiczna, tożsamość płciowa i poważna choroba”.
Facebook zaznacza, że egzekwując Standardy Społeczności korzysta zarówno z automatycznych systemów, jak i zespołów weryfikacyjnych.
„Nasza technologia aktywnie wykrywa i usuwa zdecydowaną większość treści naruszających zasady, zanim ktokolwiek je zgłosi – zapewnia firma. - Inżynierowie, specjaliści do spraw danych i zespoły weryfikacyjne współpracują na rzecz aktualizowania i ulepszania technologii w miarę upływu czasu. Nasza technologia pomaga także zespołom weryfikacyjnym w nadawaniu priorytetu zgłoszeniom, tak aby weryfikatorzy mogli się zająć najtrudniejszymi przypadkami. Jednocześnie ponad 15 tys. weryfikatorów na całym świecie sprawdza potencjalne naruszenia zasad na Facebooku i Instagramie. Otrzymują kompleksowe szkolenie i często specjalizują się w określonych obszarach i regionach. Łącznie weryfikują treści w ponad 50 językach, w tym w języku polskim”.
Platforma założona przez Marka Zuckerberga nie definiuje obecnych trendów w ewolucji mowy nienawiści. Zwraca za to uwagę na fakt, że rola systemów opartych na uczeniu maszynowym w odkrywaniu naruszeń stale rośnie.
„Dzięki nim większość treści naruszających Standardy Społeczności jest wykrywana już na etapie ich tworzenia, a znalezienie i usunięcie ich duplikatów odbywa się automatycznie – wyjaśnia Facebook. - Jeszcze dwa lata temu, w ciągu trzech miesięcy od kwietnia do czerwca 2019 roku podjęliśmy działania wobec 4,3 miliona przypadków mowy nienawiści, z czego 71,1 proc. przypadków wykryliśmy sami. W tym samym okresie w 2021 roku było to już 31,5 miliona przypadków, w 97,6 proc. wykrytych przez nasze systemy. AI służy także do wykrywania obrazów i tekstu, które są identyczne z treścią, którą już usunęliśmy jako mowę nienawiści. Nasza technologia przygląda się też reakcjom i komentarzom w celu oceny, jak podobna jest dana treść”.
Emocje ważniejsze od merytoryki
Prof. Alina Naruszewicz-Duchlińska z Uniwersytetu Warmińsko-Mazurskiego podkreśla ważną zmianę w ewolucji internetowego hejtu. Chodzi o to, że mowa nienawiści staje się coraz mniej anonimowa.
„W internecie wyrażanie uczuć i odczuć niekiedy dominuje nad kwestiami merytorycznymi – zaznacza Alina Naruszewicz-Duchlińska. - Nie bez powodu najpopularniejsze przyciski w serwisach społecznościowych przekazują oceny („lubię to” itd.). Reakcje bywają ważniejsze od informacji, również dlatego, że szybciej zwracają na siebie uwagę, która jest w internecie dobrem deficytowym i walczy się o jej pozyskanie.”
Według ekspertki jeśli chodzi o środki wyrazu, hejt się raczej nie zmienia, bazując na tradycyjnych mechanizmach obrażania, ale – co jest jednocześnie i ciekawe, i niepokojące – przestaje być anonimowy.
„Oczywiście, nigdy nie był anonimowy tak naprawdę i jeśli komuś zależało na wytropieniu hejtera, nie było to tak trudne, jak „nienawistnik” by sobie życzył, ale obecnie zauważalne są wypowiedzi, które można uznać za hejt, podpisane prawdziwymi personaliami swoich autorów – wyjaśnia Naruszewicz-Duchlińska. - To każe podejrzewać, że są one uznawane za powód do dumy i może nawet świadectwo odwagi cywilnej, a nie powinny. I to nie tylko zgodnie z etykietą, ale polską kulturą, w której zawsze wysoko ceniono grzeczność. Wolność słowa to nie agresja. Jak zapobiegać hejtowi? Ważna jest edukacja, przypominanie o sztuce dyskusji i tym, że wymiana opinii nie musi być wymianą słownych ciosów, nawet jeśli dotyczy newralgicznych tematów. Jeśli hejt staje się niebezpieczny, np. przybiera charakter osobistych ataków, trzeba reagować – zgłosić sprawę administratorom strony, a jeśli to nie pomoże skorzystać z serwisów pomagających w takich sytuacjach (np. HejtStop) lub zwrócić się do policji”.
/PS
Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.
Haertle: Każdego da się zhakować
Materiał sponsorowany