Reklama

Polityka i prawo

Kampania wyborcza w cieniu trolli. "Mogą wpływać na wynik wyborów"

Czy farmy trolli mogą wpłynąć na wynik wyborczy?
Czy farmy trolli mogą wpłynąć na wynik wyborczy?
Autor. Sejm RP - oficjalne konto X; / Łukasz Mejza - konto X; Modyfikacje: CyberDefence24

Farma trolli miała pomóc posłowi Łukaszowi Mejzie w skutecznym uzyskaniu mandatu na kolejną kadencję. Na ile fikcyjne konta, które promowały polityka wpłynęły na to, że dostał się do Sejmu? Czy jesteśmy skazani na tego typu nieuczciwe praktyki wyborcze, a każda kolejna kampania w mediach społecznościowych odbędzie się w cieniu trolli?

Reklama

Jak opisała Wirtualna Polska, w czasie kampanii wyborczej do parlamentu Łukaszowi Mejzie (Partia Republikańska, komitet PiS) pomagała siatka fikcyjnych kont w mediach społecznościowych.

Reklama

Autor – Szymon Jadczak – zidentyfikował ponad 100 fałszywych profili. Jako przykład w materiale podano między innymi fikcyjne konto, podszywające się pod młodą Ukrainkę, chorą na ciężki nowotwór. Fotografia i jej wizerunek zostały skradzione ze zbiórki na leczenie. Ten obrzydliwy przykład pokazuje, że niektórzy nie mają hamulców i kierują się zasadą „wszystkie chwyty dozwolone”.

Jednak to nie wszystko: nie tylko tworzono profile w mediach społecznościowych na bazie skradzionych tożsamości lub zdjęć wygenerowanych przy pomocy sztucznej inteligencji, ale także zakładano konta „udające lokalne portale informacyjne” (np. CZEŚĆ Zielona Góra, CZEŚĆ Lubuskie), które w kampanii nagle zmieniły się w profile popierające Mejzę.

Reklama

W poniedziałek odbyło się pierwsze posiedzenie Sejmu X kadencji, a posłowie złożyli ślubowanie. W tym poseł Łukasz Mejza.

Czytaj też

Farmy trolli a wpływ na wynik wyborczy

Nie wiemy, jaka jest skala tego typu działalności w Polsce i w jakim stopniu realnie farmy trolli mogły wpłynąć na wyniki w ostatniej kampanii wyborczej – nie tylko w przypadku posła Mejzy. Tego typu działalność monitorują w Polsce fact-checkerzy, ale jest to proces żmudny i wieloetapowy, przy czym codziennie rozpoczyna się od nowa. Dlaczego? Liczba profili trolli, ale i botów stale rośnie, a na rynku istnieją narzędzia, które ułatwiają zbudowanie całej siatki kont (botnetu), co sprawia, że walka z nimi to syzyfowa praca.

Czytaj też

Zapytaliśmy co na ten temat sądzi Małgorzata Kilian-Grzegorczyk, prezeska Stowarzyszenia Demagog, czyli najstarszej w Polsce organizacji fact-checkingowej. Czy farmy trolli mogły być używane przez polityków na szerszą skalę w kampanii wyborczej, nie tylko w przypadku posła Mejzy?

„Budowanie rozpoznawalności polityka i kreowanie określonego wizerunku nie zawsze odbywa się za pośrednictwem farm trolli, kreowanych oddolnie jak w przypadku posła Mejzy. Istnieją firmy, które zawodowo zajmują się wzmacnianiem i ochroną wizerunku w sieci. Chodzi oczywiście o ten pozytywny wizerunek, niekoniecznie prawdziwy. Dlatego bardzo prawdopodobne jest, że politycy różnych opcji politycznych korzystali z takiego wsparcia. Myślę, że w logice działania agencje, nie różnią się od działań farmy trolli. W trakcie kampanii w Demagogu obserwowaliśmy - w zależności od tematu - bardzo wzmożone dyskusje, szczególnie na Twitterze, które przypominały aktywność farm trolli, jednak jednoznacznie nie możemy zidentyfikować ich źródła” – zwraca uwagę w komentarzu dla CyberDefence24.pl.

Czy tego typu działanie farm trolli mogło wpłynąć na wynik wyborów, w przypadkach indywidualnych, jak i partii? Ekspertka stawia sprawę jasno: „Zdecydowanie tego typu działania kreują pewien obraz rzeczywistości, zaburzają poczucie co jest prawdziwe, a co fałszywe. Co za tym idzie, wpływają na odbiór informacji przez wyborców, i jeśli są to działania dobrze zorganizowane - mogą również wpływać na wynik wyborów. W Polsce jesteśmy bardzo spolaryzowanym społeczeństwem, dlatego na pewno mogło to wpłynąć na przepływy głosów wewnątrz określonego ugrupowania, niekoniecznie na przepływy między partiami”.

Natomiast dr Klaudia Rosińska, specjalistka ds. przeciwdziałania dezinformacji w NASK, odpowiada, że trzeba by było zweryfikować realny wpływ na wynik wyborów, bo „bez dowodów trudno jest odpowiedzieć na to pytanie”.

„Jednak wydaje się, że istnieje wysokie prawdopodobieństwo, że politycy korzystają z automatycznych kont lub niekiedy kupują lajki, subskrypcje czy udostępnienia. Ten proceder jest już poważnym problemem w biznesie, wśród celebrytów i osób publicznych, zatem ignorancją byłoby przypuszczenie, że politycy nie wykorzystują tego typu nieuczciwych narzędzi” – zaznacza.

Jej zdaniem, pytanie czy mogło to wpłynąć na wynik wyborów również pozostaje otwarte. „Osobiście nie sądzę, aby to miało znaczenie w wynikach partyjnych. Przy takiej frekwencji wydaje się, że większy wpływ miały konkretne narracje propagowane przez polityków. Ale już w wynikach indywidualnych korzystanie z tego typu praktyk mogło przekładać się na konkretne głosy, a w efekcie pokonanie innych osób z listy i wejście do Sejmu lub Senatu. Rodzi się zatem pytanie czy tego typu nieuczciwe praktyki nie powinny być jakoś regulowane wewnątrzpartyjnie lub w prawie wyborczym? Bo właściwie jest to nieuczciwa konkurencja między politykami. Osoba, która gra nieuczciwie powinna być napiętnowana i ponieść jakieś konsekwencje swoich działań” – ocenia, komentując tę kwestię dla CyberDefence24.pl.

Czytaj też

Przyszłe wybory w cieniu trolli?

Zatem, jeśli widzimy tego typu zjawiska już w przypadku ostatnich wyborów, czy oznacza to, że każda kolejna kampania w przyszłości odbędzie się w cieniu trolli? Tylko ignorant w obecnych czasach nie przyznałby, że media społecznościowe mają niebagatelny wpływ na decyzje wyborców, którzy w coraz większym stopniu żyją na pograniczu świata offline i online.

Myślę, że tego typu działania są obecne przez cały czas w sieci, w trakcie wszystkich ostatnich kampanii również i nie jest to nowe zjawisko. Obserwujemy farmy trolli, które są na przykład antyukraińskie, bardzo dobrze zorganizowane i szybko reagujące grupy opowiadające się za postulatami poszczególnych partii i wspierające je. Kiedy identyfikujemy zorganizowane akcje na Twitterze, pojawia się pytanie, czy są to realni użytkownicy, czy tylko stworzeni żeby wzmacniać przekaz partyjny. Na szczęście teraz jesteśmy bardziej świadomi jak działają tego typu grupy, dlatego szybciej możemy je demaskować i zidentyfikować fałszywe konta” – podkreśla szefowa Demagoga.

Z kolei dr Klaudia Rosińska na pytanie czy w przyszłych kampaniach obecność trolli i botów w sieci musimy uznać za „naturalne zjawisko” i nieodłączny element social mediów odpowiada, że w jej przekonaniu powinniśmy traktować media społecznościowe jak wykreowany, fikcyjny świat.

„Wówczas jako użytkownicy staniemy się bardziej krytyczni wobec treści tam napotkanych. Oczywiście przy dużej determinacji możemy znaleźć tam także wartościowe treści, ale w tym momencie algorytmy funkcjonują w taki sposób, że zalewani jesteśmy reklamami, treściami sponsorowanymi, clickbaitami, fake newsami i innymi »śmieciowymi« newsami. W kampanii wyborczej to znacząco przybiera na sile i skutecznie utrudnia dotarcie do rzetelnych treści. Według mnie w ogóle nie powinniśmy ich szukać w social mediach” - zauważa w rozmowie z nami.

Czytaj też

Odpowiedzialność platform

Oczywistym pytaniem pozostaje, czy można jakoś temu (skutecznie) zapobiec. Szefowa Demagoga ocenia, że prostym rozwiązaniem byłoby zlikwidowanie wszystkich fałszywych kont, które wykazują zachowania botów i nie są wstanie potwierdzić swojej tożsamości.

„Dozwolone również nie powinno być posiadanie kilku kont i myślę, że jest to łatwe do weryfikacji jeśli korzystamy z jednego urządzenia. Jednak odpowiedzialność za tego typu działania spoczywa na platformach technologicznych” - stwierdza dla CyberDefence24.pl.

Kwestię odpowiedzialności platform i zwiększenie obowiązków względem użytkowników opisywaliśmy wielokrotnie na łamach CyberDefence24 w tekstach na temat Digital Services Act (DSA - Akt o usługach cyfrowych) oraz Digital Markets Act (DMA - Akt o rynkach cyfrowych). Czas pokaże czy ich działanie - poza często pustymi deklaracjami - przyniesie realne skutki.

Specjalistka NASK zwraca uwagę, że regulacje na poziomie jednostkowym niewiele wnoszą. „Oczywiście, jak wspomniałam wcześniej warto rozważyć uwzględnienie w prawie kwestii nieuczciwej konkurencji, związanej z kupowaniem reakcji lub tworzeniem farm trolli. To nie jest uczciwe i powinno być zakazane. Ale musimy jednak pamiętać, że to są narzędzia związane z funkcjonowaniem i strukturą mediów społecznościowych. Zatem główna odpowiedzialność leży po stronie korporacji technologicznych takich jak Meta, Google, TikTok - uważa podobnie dr Klaudia Rosińska.

Czy wobec odpowiedzialności wobec użytkowników i wagi tematu - kampania wyborcza skutkuje przecież wyborem władz parlamentarnych (w tym przypadku) - platformy robią wystarczająco dużo, by monitorować tego typu nieautentyczne zachowania (jak trolle i boty) w mediach społecznościowych? Obie ekspertki ds. dezinformacji mają podobne opinie.

Właściciele platform deklarują, że robią dużo, ale trudno się z nimi zgodzić. Wtórne usuwanie fake newsów, czy fałszywych profili to jak naklejanie plastra na otwartą ranę. Niby coś jest robione, ale to nie rozwiązuje głównej przyczyny problemu. A jest nią w mojej ocenie funkcjonowanie algorytmów i monetyzowanie treści przez te korporacje. Zwyczajnie Big Techy nieźle zarabiają na nieprawdziwych treściach, bo one się klikają. Farmy trolli mogą funkcjonować, bo mechanizm weryfikacji profilu jest często celowo maksymalnie uproszczony. A przecież mamy współcześnie już technologie, które świetnie zabezpieczają przed botami. Dlaczego więc nie są implementowane na platformach? Głównie dlatego, że to znacząco zaburzyłoby statystyki i w efekcie obniżyłoby przychody korporacji. Dlatego kluczowe wydaje mi się wywieranie presji na właścicieli platform, aby wzięli większą odpowiedzialność za sposób ich funkcjonowania, zwłaszcza w kontekście dostępu do merytorycznej i prawdziwej informacji, która stanowi fundament procesu demokratycznego” - podsumowuje ekspertka NASK.

Natomiast przedstawicielka Stowarzyszenia Demagog jest zdania, że usuwanie fałszywych kont regularnie odbywa się na niektórych platformach, ale wciąż nie jest wystarczające. „Zbyt wolne reakcje platform, często po zgłoszeniach użytkowników, brak reakcji na łamanie regulaminów są naszym dzisiejszym wyzwaniem. W trakcie kampanii oczekiwalibyśmy większego zaangażowania i bieżącego monitoringu, ale również bardziej przejrzystego informowania społeczność o incydentach i podejmowanych działaniach” - kończy.

Innym, rosnącym zagrożeniem w kontekście dezinformacji w mediach społecznościowych jest sztuczna inteligencja. Niedawno Meta ogłosiła, że zamierza wprowadzić oznaczanie reklam politycznych, które korzystają z obrazów wygenerowanych przez narzędzia sztucznej inteligencji. Chce w ten sposób zdążyć przed amerykańskimi wyborami prezydenckimi, które odbędą się pod koniec 2024 roku.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama