Social media
Boty atakują. Przeciwnicy Trumpa pod ostrzałem na Twitterze
Tysiące fałszywych kont na Twitterze atakują przeciwników politycznych byłego prezydenta USA Donalda Trumpa, który chce w przyszłym roku ubiegać się o reelekcję. Profile powstały w ciągu ostatnich 11 miesięcy.
Dziesiątki tysięcy fałszywych kont na Twitterze aktywnie atakuje przeciwników politycznych byłego prezydenta USA Donalda Trumpa, a także jego krytyków. Trump w przyszłym roku chce ubiegać się o reelekcję i jest oficjalnym kandydatem do fotela prezydenta Stanów Zjednoczonych.
Wspomniane wcześniej profile wychwalają republikańskiego polityka, nie przebierając w środkach, aby wyśmiać jego oponentów niezależnie od ich przynależności partyjnej, w tym walczącą o nominację od Partii Republikańskiej Nikki Haley, kóra kiedyś była podwładną Trumpa. Gubernator Florydy Ron DeSantins przedstawiany jest również w negatywnym świetle.
Kto stworzył boty?
Tego nie wiadomo. Naukowcy z Izraela (firma Cyabra), którzy wskazali istnienie sieci, uważają jednak, że jest ona aktywna od mniej więcej 11 miesięcy i najwyraźniej ma być skutecznym orężem w nadchodzącej walce o stanowisko prezydenta USA.
Agencja Associated Press komentuje sprawę wskazując, że manipulacje w mediach społecznościowych dokonywane przez boty to część działań znanych z playbooka rosyjskiego – to nic nowego w Ameryce, gdzie boty były aktywne również przed wyborami w 2016 r., gdy Trump zwyciężył po raz pierwszy.
Jak rozpoznać bota?
Aby wykryć fałszywe konta, badacze poszukiwali powtarzających się schematów w wyglądzie ich publicznych profili, list osób obserwowanych i obserwujących, a także zamieszczanych treści.
„Użytkownicy białkowi", czyli ludzie nie mający nic wspólnego z automatami, najczęściej zamieszczają treści na wiele tematów, a także retweetują często wpisy innych osób – poświęcone ich zainteresowaniom lub tematom, które są aktualnie dla nich istotne.
To niestety wyróżniało wiele profili, które operowały w ramach sieci fałszywych kont – a zatem były to boty dobrze przygotowane do pełnienia swojej misji. Wszystkie fałszywe konta – zawierające zdjęcia profilowe osób, które rzekomo stoją za profilami, jak i imiona i nazwiska nieistniejących użytkowników – aby się uwiarygodnić, wchodziły w interakcje z innymi osobami na Twitterze, nierzadko odpowiadając na wpisy dotyczące polityki. Celem była polaryzacja i wzmocnienie skrajnego, pro-trumpowskiego przekazu – twierdzą badacze.
Treści zamieszczane przez boty były przy tym redagowane w sposób dobrze oddający charakterystykę języka naturalnego. To, co pozwoliło naukowcom na ostateczne połączenie kropek i przypisanie aktywności fałszywym kontom, to powtarzalność treści – w tym samym czasie duże grupy kont powtarzały te same schematy tematyczne i narracyjne, co pozwoliło na przypisanie ich aktywności do sieci fałszywych person na Twitterze.
Wiele kont powstało również tego samego dnia, co doprowadziło do stwierdzenia, że muszą być zautomatyzowane i działają w ramach jednej sieci.
Dlaczego boty są skuteczne?
Boty, jak zwraca uwagę AP, nie mają przekonywać ludzi – ale wzmacniać siłę przekazu, który ma oddziaływać na odbiorców, po to, aby dotarł do jak największej ich liczby.
Osoby, których wpisy na Twitterze i w innych mediach społecznościowych są podawane dalej przez boty, nieświadomie i bez wpływu na taki stan rzeczy stają się częścią ich sieci oddziaływania, wysyłając również sygnał algorytmom platformy, że nie ma tu nic podejrzanego, co byłoby trzeba moderować.
Boty mogą również tworzyć fałszywe poczucie popularności danego tematu lub osoby, wpływając na odwrócenie się np. od kandydata, który nie dysponuje tego rodzaju tubą – z prostej przyczyny: skoro to o przeciwniku jest głośniej, to ten „cichszy" kandydat i tak nie zwycięży.
Sieć pełna cyborgów
AP wskazuje, że w miarę, jak mechanizmy do wykrywania fałszywych kont w mediach społecznościowych działają coraz sprawniej, to rośnie zróżnicowanie metod, jakimi posługują się operatorzy botów i ich sieci.
Obecnie zdarza się coraz częściej, że konto bota na jakiś czas jest przejmowane przez człowieka, który postuje na nim autentycznie wyglądające treści i wchodzi w interakcje, w które może wejść tylko realny użytkownik – dlatego o wiele trudniej wykryć takie profile.
Problemem jest również sztuczna inteligencja, która – w modelach takich, jak ChatGPT – z doskonałą precyzją imituje teksty generowane przez człowieka i może to robić w sposób niezwykle wydajny. O tym, jak można wykorzystać ją do celów propagandowych, pisaliśmy na łamach naszego serwisu tutaj .
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].