Reklama

Social media

Parler dezinformacją stoi? Problemy „alternatywnej" platformy

fot. TheDigitalArtist / pixabay
fot. TheDigitalArtist / pixabay

87% materiałów opublikowanych na Parlerze w czasie ataku na Kapitol pochodziło z dezinformacyjnych witryn – twierdzą eksperci, którzy przeanalizowali treści pojawiające się na platformie w okresie poprzedzającym wtargnięcie grupy protestujących na Kapitol.

Eksperci NewsGuard zajmujący się oceną wiarygodności informacji publikowanych w sieci oraz PeakMetricks wskazują, że w okresie bezpośrednio przed i w trakcie wtargnięcia na Kapitol 6 stycznia br. linki udostępniane w aplikacji społecznościowej Parler pochodziły w przeważającej mierze z dezinformacyjnych witryn internetowych. Jest to już kolejna informacja potwierdzająca, w jakim stopniu media społecznościowe mogły przyczynić się do zaognienia sytuacji w Stanach Zjednoczonych na początku stycznia br. kiedy to miały miejsce liczne wystąpienia zwolenników Donalda Trumpa, którzy podważali wyniki wyborów.

87% z przeanalizowanych 17 000 publicznych postów zawierających linki z pierwszego tygodnia stycznia 2021 było publikowanych ze stron, które zyskały wcześniej „czerwone oceny” – taką opinię zyskiwały portale, które nie przestrzegały podstawowych standardów dziennikarskich.

Analiza treści publikowanych w tym gorącym okresie wykazała zaskakujące wnioski. Najczęściej wykorzystywanym źródłem informacji była witryna zarejestrowana w Macedonii Północnej o nazwie „American Conservatives Today”. Jest ona o tyle zastanawiająca, że pomimo, iż jej nazwa wskazuje na obszar zainteresowania amerykańską polityką, to jest prowadzona z terenu państwa południowoeuropejskiego. Co więcej, została uruchomiona w 2020 roku, a w rankingu prowadzonym przez NewsGuard uzyskała wiarygodność na poziomie 0 na 100 i nie spełniła żadnego ze standardów dziennikarskich. Na łamach tego portalu, jak podkreślono w analizie, wielokrotnie pojawiały się informacje odnośnie sfałszowania maszyn do głosowania w taki sposób, aby głosy oddane na Donalda Trumpa zmieniać na Joe Bidena.

Na liście popularnych witryn znalazły się również te publikujące informacje o planach wprowadzenia stanu wojennego, aby umożliwić wygraną Bidenowi oraz fake newsy odnośnie koronawirusa. Popularne były także witryny propagujące informacje odnośnie teorii QAnon. Co jednak istotne, analiza wykryła linki prowadzące do witryn sprzedających broń, „zestawy przetrwania”, odżywki i suplementy, a także inne towary tego typu.

Pomimo, że analiza obejmowała zaledwie niewielki wycinek czasu, wskazuje on na niepokojące dane -  Parler w tym okresie stanowił siedlisko informacji przesyłanych z niskiej jakości źródeł.

Podobny problem wystąpił również w wypadku Facebooka. W raporcie Tech Transparency Project (TTP), będący wynikiem analizy treści publikowanych na tej platformie, wskazano, że na przestrzeni kilku ostatnich miesięcy poprzedzających wtargnięcie na Kapitol, grupy ekstremistyczne wykorzystywały platformę Marka Zuckerberga do organizowania i podburzania użytkowników, głównie promując treści o oszustwach wyborczych. O pierwszych symptomach informowano już w kwietniu ubiegłego roku, kiedy to wskazywano, że na facebookowych grupach członków Boogaloo (ruch skrajnie prawicowych ekstremistów) podejmowano działania, mające przygotować ich do drugiej wojny secesyjnej.

TTP wykrywało również liczne przypadki krajowych ekstremistów prowadzących rozmowy odnośnie taktyki i broni, a także koordynujących działania mających na celu obalenie rządu. Większość z tych konwersacji odbywało się za pośrednictwem prywatnych grup na Facebooku. W okresie przedwyborczym członkowie badanych społeczności próbowali zorganizować próby zastraszenia wyborców – co eksperci TTP wskazali jako sygnał do próby siłowego wpływania na wynik wyborów. Odnotowano także groźby zamordowania Joe Bidena oraz innych urzędników.

Już w listopadzie ubiegłego roku na Facebooku wykryto grupę, której członkowie nawoływali do przemocy, a także głosili hasła, że Demokraci kradną wybory Republikanom. Na grupie pojawiały się niepokojące treści o charakterze wywrotowym. 

Grupa została wykryta przez londyńską organizację Center for Countering Digital Hate, która na Twitterze opublikowała screeny napisane przez użytkowników, wskazujące na bezpośrednie nawoływanie do przemocy. Niektóre z nich zawierały niepokojące treści jak: „Żadna ze stron nie ustąpi. Czas wyczyścić broń, czas wyjść na ulice”. W wyniku nagłośnienia sprawy, Facebook zablokował grupę.

Jak pisaliśmy w styczniu w naszej analizie, Parler stał się celem największych koncernów internetowych – Amazona, Google oraz Apple – które prawdopodobnie chciały doprowadzić do upadku platformy. Po zamieszkach w Stanach Zjednoczonych i szturmie na Kapitol serwis ten odnotował „skok” popularności, stając się zyskującą na znaczeniu alternatywą dla znanych powszechnie witryn, w tym Twittera. Niezwykle istotne dla sprawy miały również rosyjskie wątki sprawy. Ostatecznie serwisowi pomimo blokady zastosowanej przez gigantów technologicznych, udało się przywrócić serwis do „życia”. 

Warto podkreślić, że z problemem dezinformacji zmagają się wszystkie platformy społecznościowe. Jednak Parler, jako serwis alternatywny i potencjalnie konkurencyjny do gigantów technologicznych znajduje się pod szczególnym "nadzorem". Amazon jako powód dlaczego zdjął serwis ze swojej platformy internetowej podał "pogwałceniem zasad". Później w sądzie przedstawiał w sądzie zrzuty ekranu z wpisami wzywającymi do przemocy oraz o treści rasistowskiej i antysemickiej. Czy jednak takie wpisy są czymś nadzwyczajnym na platformach społecznościowych? Wystarczy rzut oka na "perypetie" Facebooka aby zorientować się, że nie. Warto przypomnieć chociażby rasistowskie hasła względem Kamali Harris publikowane na serwisie. Podobnie rzecz ma się z Intagramem, który został oskarżony o doprowadzenie do śmierci nastolatki po zapoznaniu się z treściami z samookaleczeń. Taka decyzja nie zapadła również po tym, jak TikTok na żywo transmitował próbę samobójczą. Pomimo oficjalnego tłumaczenia Amazona, Apple i Google, nietrudno odnieść wrażenie, że na fali „oczyszczania internetu z nienawistnych treści” i poczuciu fałszywej legitymizacji do podjęcia takich działań po wtargnięciu na Kapitol – po prostu wyeliminowano konkurencję.

Więcej na ten temat pisaliśmy w naszej analizie Socialowy Wielki Brat. Kto wyznaczy „granice” wolności słowa?

image

Reklama

Komentarze

    Reklama