Reklama

Sztuczna inteligencja w służbie rosyjskiej propagandy

Autor. Canva/edycja: CyberDefence24

Na początku sierpnia 2025 roku w sieci pojawiła się sensacyjna wiadomość: prorosyjskie portale poinformowały, że rosyjskie siły specjalne schwytały dwóch brytyjskich pułkowników, Richarda Carrolla i Edwarda Blake’a, podczas ataku na ukraińskie centrum dowodzenia w Oczakowie.

Zdjęcia zamieszczone na portalach informacyjnych przedstawiały rzekomych jeńców trzymających paszporty dyplomatyczne. Jak jednak szybko wykazali eksperci, fotografie zostały wygenerowane przez sztuczną inteligencję. Udało się to ustalić po tym, że zawierały błędy w herbie, nieczytelne napisy na dokumentach oraz nieprawidłowe odznaczenia wojskowe na mundurach.

Zdjęcie wygenerowane przez sztuczną inteligencję przedstawiające "schwytanie" dwóch brytyjskich pułkowników.
Zdjęcie wygenerowane przez sztuczną inteligencję przedstawiające "schwytanie" dwóch brytyjskich pułkowników.
Autor. France24

Czytaj też

Reklama

Szybki przepływ fake newsa

Pierwszy raport został opublikowany 4 sierpnia przez rosyjską agencję EADaily, rosyjski portal regularnie powielający oficjalne narracje Kremla. Twierdził on, że „pułkownicy Edward Blake i Richard Carroll” zostali zatrzymani przez rosyjskie siły specjalne podczas tajnej misji na Ukrainie. Artykuł zarzucał, że obaj oficerowie zostali sklasyfikowani jako „nielegalni bojownicy” i sugerował, że Wielka Brytania próbowała ukryć ich obecność.

Informację tę podał też francuski portal „Pravda-fr”, zidentyfikowany przez Viginum jako część prorosyjskiej sieci dezinformacyjnej Portal Kombat. Do narracji wkrótce dołączyła rosyjska agencja TASS, która opublikowała kolejne szczegóły o rzekomych negocjacjach wymiany jeńców i dokumentach dyplomatycznych.

Podobną wersję zdarzeń podawał norweski portal Steigan, znany z teorii spiskowych, który jednak już po jednym dniu usunął tekst, tłumacząc swoją decyzję brakiem weryfikacji. Jak ujawniono później, źródłem całej historii był amerykański program Hal Turner Radio Show, prowadzony przez komentatora znanego z prorosyjskich i antysemickich poglądów.

Pomimo braku potwierdzenia, fałszywa wiadomość rozprzestrzeniła się szeroko – od Europy Środkowej, przez Bliski Wschód, aż po Azję. Według ustaleń dziennikarzy dotarła do co najmniej trzynastu krajów, w tym: Serbii, Węgier, Pakistanu i Wietnamu. Dezinformacja została podchwycona nawet przez tradycyjne media – algierska stacja telewizyjna AL24 poświęciła jej blisko półgodzinną debatę.

Czytaj też

Reklama

Stanowisko brytyjskiego rządu

Brytyjski rząd nigdy nie potwierdził doniesień o pojmaniu oficerów, a żadne wiarygodne media nie znalazły dowodów, że Carroll i Blake w ogóle istnieją. Niezależne redakcje, m.in. Euronews, przeprowadziły analizy zdjęć, wskazując jednoznacznie na ich sztuczny charakter i błędy wynikające z generowania przez AI.

Mechanizmy dezinformacji

Mechanizm rozprzestrzeniania tej historii wpisuje się w znaną strategię propagandową określaną jako „firehose of falsehood”, czyli „strumień kłamstw”. Polega ona na masowym zalewaniu odbiorców sprzecznymi, szybko powielanymi przekazami, które tworzą wrażenie wiarygodności poprzez samą skalę obecności w mediach. Podobne schematy rosyjskiej dezinformacji zostały już opisane w bazie incidentdatabase.ai, która analizuje operacje manipulacyjne w czasie rzeczywistym.

Szczególnie istotną rolę w tej sprawie odegrała sztuczna inteligencja. Według raportów dziennika The Times, prorosyjska sieć „Pravda” publikuje dziennie nawet dziesięć tysięcy artykułów w kilkudziesięciu językach. Mają one nie tylko wpływać na opinię publiczną, lecz także trafiać do baz treningowych modeli językowych, aby „uczyć” chatboty powtarzania prorosyjskich narracji.

Czytaj też

Reklama

AI wykorzystywane w rosyjskich kampaniach dezinformacyjnych

Na szerszą skalę wykorzystanie darmowych narzędzi AI w rosyjskich kampaniach dezinformacyjnych zostało opisane przez magazyn Wired. Od września 2024 do maja 2025 w ramach operacji „Overload” (znanej też jako Storm-1679) powstało blisko 600 fałszywych materiałów: obrazy, wideo i imitacje artykułów. Z kolei analizy The Washington Post wykazały, że Rosjanie starają się także manipulować modelami konwersacyjnymi – badania pokazały, że aż jedna trzecia odpowiedzi chatbotów powtarzała tezy z prorosyjskich narracji.

Raport Royal United Services Institute (RUSI) podkreśla, że generatywna sztuczna inteligencja stała się integralną częścią rosyjskich kampanii propagandowych. Operacja „Doppelgänger” podrabia zachodnie media i rozpowszechnia prorosyjskie treści w różnych krajach, wpływając na opinię publiczną i próbując destabilizować zaufanie do demokracji.

Przykład fałszywej historii o pojmaniu brytyjskich oficerów pokazuje, jak szybko i skutecznie mogą rozprzestrzeniać się zmanipulowane przekazy wspierane przez technologię AI. W świecie, w którym deepfake’i i syntetyczne obrazy mogą być produkowane w kilka minut, rośnie znaczenie instytucji weryfikujących fakty, specjalistycznych narzędzi do wykrywania dezinformacji oraz odpowiedzialności mediów i platform społecznościowych.

Czytaj też

Reklama
CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

WYCIEKI DANYCH z firm. JAK ZAPOBIEGAĆ wynoszeniu danych przez pracowników?

Materiał sponsorowany

Komentarze

    Reklama