Reklama

Nowa wojna o umysły. Rosja i Chiny śmielej sięgają po narzędzia wpływu

rosja Putin Xi chiny
Xî Jinping i Władimir Putin.
Autor. Presidential Executive Office of Russia/Wikimedia Commons/CC4.0

Rosja i Chiny coraz śmielej sięgają po dezinformację jako narzędzie wpływu geopolitycznego. Najnowszy raport ujawnia skalę manipulacji. Setki operacji, dziesiątki tysięcy kanałów i zasięgi sięgające całego świata – wojna informacyjna trwa: od Ukrainy po Sahel, od Tajwanu po Zachodu.

W marcu 2025 r. Europejska Służba Działań Zewnętrznych (EEAS) opublikowała „Raport o zagrożeniach wynikających z obcej manipulacji i ingerencji informacyjnej”. Dokument pokazuje, że przestrzeń informacyjna stała się równorzędnym teatrem rywalizacji geopolitycznej: Rosja i Chiny łączą narzędzia dyplomatyczne, operacje wojskowe oraz dezinformacyjne, aby polaryzować społeczeństwa, podkopywać procesy wyborcze i osłabiać partnerstwa zachodnie.

Czytaj też

Metodologia EEAS i czterowarstwowa Macierz FIMI

Trzon raportu stanowi FIMI Exposure Matrix – model dzielący infrastrukturę propagandową na cztery kręgi:

  1. Oficjalne kanały państwowe (np. Ministerstwo Spraw Zagranicznych Federacji Rosyjskiej, konta ambasad Chińskiej Republiki Ludowej);
  2. Media kontrolowane przez państwo – Russia Today, Sputnik, agencja TASS, China Global Television Network, dziennik „Global Times";
  3. Kanały powiązane ze służbami – portale finansowane przez Federalną Służbę Bezpieczeństwa czy chińskie Ministerstwo Bezpieczeństwa Państwowego, lecz ukrywające patrona;
  4. Kanały „state-aligned" – blogi, grupy w Telegramie, influencerzy, którzy stale wzmacniają przekaz Kremla lub Pekinu bez formalnego łańcucha finansowania.

Macierz łączy dane techniczne (IP, hostingi, identyczny kod witryny, ślady płatności) i wskaźniki behawioralne (jednoczesne publikacje, tożsame słownictwo, kopiowanie nagłówków).

Reklama

Statystyka roku 2024 – skala, zasięg, platformy

Między listopadem 2023 a listopadem 2024 r. analitycy EEAS wykryli 505 incydentów FIMI obejmujących 90 krajów i 38 000 unikalnych kanałów. Zgromadzono 68 000 nośników treści (filmy, tweety, memy). 

X (dawniej Twitter) odpowiadał za 88 proc. całej aktywności; drugie miejsce zajęły strony WWW – często rejestrowane w tzw. bullet-proof hostingu. Meta Platforms (Facebook, Instagram) pozostaje kluczowa dla targetowanych reklam politycznych, a Telegram oraz TikTok dla wiralowych filmów.

Najczęściej atakowanym państwem była Ukraina (prawie połowa przypadków), następnie Francja (152 incydenty, głównie w związku z Igrzyskami 2024 i kampanią parlamentarną), Niemcy (73), Mołdawia (45) oraz kraje Sahelu.

Czytaj też

Rosyjskie wektory wpływu: od Ukrainy po Sahel

Moskwa łączy media państwowe (Russia Today, Sputnik, RIA Nowosti) z kampaniami „pod fałszywą flagą”. Operacja Doppelgänger (analiza EUvsDisinfo) klonowała strony „Le Monde”, „Le Parisien”, „Der Spiegel” i „The Guardian”, aby publikować teksty o „dyktacie Brukseli”. W Mołdawii sieć Portal Kombat (raport VIGINUM) zalała rynek lokalnymi wersjami rosyjskiej propagandy, a deepfake z głosem prezydent Mai Sandu oskarżał rząd o handel organami.

W Afryce rosyjska African Initiative przejęła schedę po Grupie Wagner, publikując artykuły w sześciu językach i szkoląc „dziennikarzy” w Wagadugu. Kanały RT Africa i Sputnik Afrique promują przekaz o „neokolonializmie Paryża” i przedstawiają Moskwę jako gwaranta bezpieczeństwa.

Reklama

Chińska strategia outsourcingu propagandy

Pekin preferuje scentralizowany przekaz, lecz chętnie zleca brudną robotę firmom PR. Kampania HaiEnergy – 316 stron zarządzanych przez Shanghai Haixun Technology – podszywa się pod gazety regionalne w USA i UE, wklejając materiały agencji Xinhua. Operacja Paperwall, opisana przez Citizen Lab, to 123 serwisy w 30 krajach zlecone firmie Shenzhen Haimai-yunxiang Media. 

Obie sieci mają wpływać na wyniki wyszukiwania i tworzyć wrażenie zachodniego poparcia dla chińskiej polityki wobec Tajwanu czy Morza Południowochińskiego.

Czytaj też

Technologie i taktyki: botnety, deepfake'i, portale-widma

  • Botnety i CIB – 28 000 z 38 000 kont to profile jednorazowe.
  • Podszywanie się – 127 przypadków klonowania marek (Frankfurter Allgemeine ZeitungDer Spiegel).
  • Deepfake'i – 41 incydentów; Microsoft Threat Analysis Center 
  • opisał
  •  rosyjskie wideo z wiceprezydent Kamalą Harris.
  • Reklamy targetowane – sieci Meta wykorzystane do mikrotargetingu np. rolników w Niemczech.
Reklama

Studium przypadku I – referendum i wybory w Mołdawii

Kreml rzucił pełne spektrum narzędzi: rzeczniczka MSZ Rosji Marija Zacharowa atakowała prezydent Sandu oficjalnie, a sieć Portal Kombat doiła autoprzetłumaczone teksty ze Sputnika. 

W dniu głosowania na Telegramie krążył deepfake z głosem Sandu „przyznającej się” do fałszerstw. Cel: zablokować kurs na Unię Europejską.

Studium przypadku II – rosyjska soft-power w Afryce

African Initiative działa dwutorowo: własne treści trafiają do serwisów RT International jako „głos kontynentu”, a materiały RT są tłumaczone i wtłaczane do lokalnych grup na Facebooku. 

W efekcie w Sahelu Rosja jawi się jako jedyny obrońca tradycji przed Zachodem i przed dżihadystami.

Studium przypadku III – chińskie „influence-for-hire”

W kampanii prezydenckiej w Tajwanie (styczeń 2024) agencja Haixun rozsyłała do sieci HaiEnergy teksty Xinhua o „prowokacjach Lai Ching-te”. Po kilku godzinach te same artykuły pojawiły się na dziesiątkach „lokalnych” portali w USA, Kanadzie i Europie, a następnie w Google News – jako rzekome opinie zachodnich ekspertów.

Reklama

Eskalacja sztucznej inteligencji w kampaniach FIMI

Generatywna AI obniża koszty produkcji treści i pozwala skalować infiltrację forów w językach rzadkich. Deepfake głosu Sandu w Mołdawii, wideo z Joe Exotic popierającym Kreml (operacja Doppelgänger) czy automatyczne komentarze w suahili pod postami BBC Swahili to sygnał, że AI staje się standardem w arsenale FIMI.

Czytaj też

Odpowiedź Unii Europejskiej: sankcje, regulacje, edukacja

W grudniu 2024 r. UE przyjęła pierwszy pakiet sankcji wymierzony wyłącznie w architektów dezinformacji (tu m.in. firmy Struktura i Social Design Agency finansujące Doppelgängera). 

Digital Services Act wymusza etykietowanie reklam politycznych i szybkie zdejmowanie Coordinated Inauthentic Behaviour. Komisja uruchomiła program grantowy dla fact-checkerów (EUvsDisinfo, Bellingcat, Correctiv) oraz kampanię edukacji medialnej w szkołach.

Reklama

Rekomendacje i wnioski końcowe

EEAS podkreśla, że FIMI to długofalowa strategia, nie doraźny chwyt. Walka z nią wymaga:

  • analizy wyprzedzającej – łączenia danych cyber-threat-intel z Macierzą FIMI;
  • kosztów dla sprawców – sankcji personalnych, blokad finansowych, ujawniania źródeł;
  • pełnej przejrzystości platform – aby boty nie mogły ukrywać sponsorów;
  • odporności społecznej – szkolenia z rozpoznawania deepfake'ów i krytycznej analizy źródeł.
Reklama

Walka o fakty, to walka o bezpieczeństwo

Jeśli odbiorcy uwierzą, że wszystko jest propagandą, sama prawda straci wartość – a wtedy żadna tarcza rakietowa nie obroni demokracji” – konkluduje raport. 

Najnowsze ustalenia EEAS jasno dowodzą: walka o fakty to dziś walka o bezpieczeństwo europejskiego porządku politycznego.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama
Reklama

SK@NER: Jak przestępcy czyszczą nasze konta?

Komentarze

    Reklama