Polityka i prawo

#CyberMagazyn: Moderacja treści przy udziale rządu to polityczna cenzura

Fot. Markus Winkler / Unsplash

Zaangażowanie rządu w moderację treści w mediach społecznościowych stwarza poważne zagrożenie dla praw człowieka, które nabiera na znaczeniu tym bardziej, jeśli w egzekwowanie standardów związanych z usuwaniem nielegalnych treści zaangażowane są organy ścigania – twierdzi organizacja Electronic Frontier Foundation.

Zagadnienia związane z moderacją treści oraz tym, gdzie zacierają się granice pomiędzy ochroną użytkowników platform internetowych a cenzurą, poruszaliśmy na łamach naszego serwisu już wielokrotnie.

Kwestie te budzą również liczne kontrowersje wśród opinii publicznej, są także przedmiotem prac polityków oraz gremiów odpowiedzialnych za stanowienie prawa. Moderacja treści, które uznawane są za nielegalne, znalazła swoje miejsce w zapisach m.in. Aktu o usługach cyfrowych (Digital Services Act, DSA) – nowego unijnego prawa, które ma regulować funkcjonowanie platform społecznościowych m.in. w tej materii, dając im godzinę na usuwanie nielegalnej zawartości.

Czy polityczne zaangażowanie w moderację jest bezpieczne?

Według organizacji Electronic Frontier Foundation (EFF) – to niemożliwe. Zdaniem EFF, jeśli platformy społecznościowe rozpoczynają współpracę z agencjami rządowymi w zakresie moderacji, zawsze przekłada się to na działania, które będą w interesie administracji danego państwa.

Rząd w ramach takiej kooperacji zyskuje natomiast możliwość wywierania bardzo miękkiego, a przy tym szerokiego wpływu na to, jak wyglądają procedury moderacji, wykorzystywane do niej systemy, a nawet to, kto przy zadaniach z nią związanych pracuje.

Manipulacja procesami moderacji treści w internecie dla własnej politycznej korzyści jest zdaniem EFF w takim momencie oczywistością. Może mieć różne kierunki – od kontroli nad dialogiem publicznym, tłumienia niezadowolenia opinii publicznej, uciszania przeciwników, bądź nawet całych ruchów społecznych.

Kiedy systemy pozwalające rządowi na ingerencję w procesy moderacji treści już powstaną, z wielką łatwością mogą być wykorzystywane również przez organy ścigania, które stają się politycznym narzędziem do wywierania nacisku na platformy, przejawiajacego się w żądaniach usunięcia treści, które dana administracja uznaje za nieprawomyślne. Warto w tym momencie zaznaczyć, że w przeciwnym wypadku treści te w żaden sposób nie byłyby usuwane ani moderowane, bo nie spełniają np. kryteriów nielegalności i nie naruszają też regulaminów samych platform.

Przykład Wietnamu, Izraela i Palestyny

W swojej analizie tego, jak moderacja treści może stać się narzędziem politycznym w rękach rządów, Electronic Frontier Foundation podaje przykład Wietnamu, Izraela oraz Palestyny.

W przypadku pierwszego z wymienionych krajów, moderacja stała się istotnie narzędziem realizowania polityki w rękach rządu. Państwo wykorzystało możliwość wywierania wpływu na to, jakie treści są legalne, a jakie nie w cyfrowej przestrzeni Wietnamu, do walki z przeciwnikami politycznymi.

Zdaniem EFF, podobne działania podejmuje obecnie Izrael, który chwali się, że jego cyberjednostki odnoszą 90-procentową skuteczność w walce z nielegalnymi treściami online. Organizacja zwraca jednak uwagę, że przeważnie treści te dotyczą działalności aktywistów broniących idei wolnej Palestyny, a także organizacji medialnych i społecznych, które krytykują politykę Izraela wobec Palestyńczyków.

Jeden z incydentów usuwania treści w Izraelu – jak czytamy na blogu EFF – sprowokował organ mający nadzorować działania Facebooka (Facebook Oversight Board) do wydania rekomendacji, aby ten najpopularniejszy na świecie serwis społecznościowy sformułował zasady „formalnego, przejrzystego procesu dotyczącego udzielania odpowiedzi na wpływające do niego ze strony rządów żądania usunięcia treści i upewnił się, że wszystkie są wyszczególnione w raporcie Facebooka dotyczącym przejrzystości jego działań".

Organizacje wzywają platformy do rozpoznania ryzyka

Electronic Frontier Foudnation wraz z innymi organizacjami pozarządowymi zajmującymi się ochroną praw człowieka i praw obywatelskich w świecie cyfrowym wezwały wielkie platformy społecznościowe do rozpoznania ryzyka, jakie wiąże się z rządową kontrolą moderacji treści.

Zbiór rekomendacji znany jako „Santa Clara Principles 2.0" wzywa firmy technologiczne do rozpoznania „szczególnych zagrożeń dla praw użytkowników, które wynikają z zaangażowania państw w procesy moderacji treści". Dokument ten również stwierdza, że „aktorom państwowym nie wolno nadużywać relacji z firmami technologicznymi lub manipulować ich systemami moderacji treści do cenzurowania głosów sprzeciwu, oponentów politycznych, ruchów społecznych lub jakichkolwiek osób".

Jakie prawa powinni mieć użytkownicy?

Według dokumentu, przede wszystkim powinni:

  • mieć wgląd we wszystkie regulacje i polityki (dotyczące moderacji treści – red.), niezależnie od tego, czy mają charakter globalny czy też lokalny, które odzwierciedlają zasady obowiązującego prawa
  • mieć dostęp do informacji o wszelkich formalnych lub nieformalnych relacjach i umowach rządów z firmami technologicznymi, jeśli chodzi o moderację treści lub kont, względem których podejmowane są działania
  • dysponować wiedzą na temat tego, jak dokonywana jest ocena kont lub treści przeznaczonych do moderacji w ramach procesów, w których uczestniczą aktorzy państwowi, w szczególności – do informacji, czy odbywają się one w oparciu o zasady firmy, czy też politykę lub lokalnie obowiązujące w danym kraju prawo
  • mieć dostęp do informacji na temat żądań usunięcia treści lub kont domagają się rządy

EFF zwraca uwagę, że dostęp ten powinien być użytkownikom przyznany w szczególności w sytuacjach, kiedy organy państwowe mają status podmiotów zaufanych, mogących zgłaszać do moderacji treści na uprzywilejowanych zasadach.

Regułę taką wdraża m.in. wspomniany na początku tego tekstu unijny Akt o usługach cyfrowych - DSA, który wprowadzi możliwość dla platform internetowych polegającą na wyznaczeniu zaufanych organów w każdym państwie członkowskim UE, odpowiedzialnych za egzekwowanie reguł moderacji treści. Na poziomie wspólnotowym organizacją taką może być Europol – co w praktyce oznacza, że moderacją zajmą się organy ścigania.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]

Komentarze

    Czytaj także