Reklama

Geopolityka w epoce deepfake. Jak AI destabilizuje państwa?

Deepfake’i wykorzystywane są jako element operacji psychologicznych, których celem jest obniżenie morale przeciwnika i wywołanie chaosu w strukturach dowodzenia.
Deepfake’i wykorzystywane są jako element operacji psychologicznych, których celem jest obniżenie morale przeciwnika i wywołanie chaosu w strukturach dowodzenia.
Autor. Lara Jameson/Pexels

Technologie generatywnej sztucznej inteligencji otworzyły nowy rozdział w historii dezinformacji. Deepfake, które powstają dziś w ogromnych ilościach, stają się coraz groźniejszym narzędziem w rękach polityków, grup interesu i cyberprzestępców.

Według raportu Entrust w 2024 roku, nowe materiały deepfake pojawiały się co pięć minut, a Parlament Europejski szacuje, że w samym tylko 2025 roku po całej Unii Europejskiej będzie krążyć aż 8 milionów tego typu materiałów

Sfałszowane nagrania wideo, zmanipulowane zdjęcia i spreparowane pliki audio mogą nie tylko wpływać na opinię publiczną, ale też destabilizować całe państwa.

Geopolityka pod presją fałszywych treści

Jak czytamy w najnowszej analizie HelpNetSecurity, manipulacje medialne od zawsze towarzyszyły konfliktom zbrojnym i rywalizacji politycznej, jednak dopiero rozwój sztucznej inteligencji nadał im niespotykaną wcześniej skalę i dynamikę. 

Technologia deepfake umożliwia tworzenie w krótkim czasie realistycznych, trudnych do odróżnienia od prawdziwych nagrań, które mogą błyskawicznie rozprzestrzeniać się w sieci. Tym samym w zaledwie kilka godzin możliwe jest wywołanie kryzysu zaufania, destabilizacja sytuacji wewnętrznej państwa czy wpływ na decyzje polityczne i gospodarcze.

Na współczesnym polu walki informacja jest równie cenna jak broń konwencjonalna. Deepfake’i coraz częściej wykorzystywane są jako element operacji psychologicznych, których celem jest obniżenie morale przeciwnika i wywołanie chaosu w strukturach dowodzenia. 

Przykładem może być wideo opublikowane w pierwszych dniach inwazji Rosji na Ukrainę, przedstawiające prezydenta Wołodymyra Zełenskiego wzywającego żołnierzy do kapitulacji. Choć materiał szybko zdementowano, samo pojawienie się materiału pokazało, jak łatwo można podważyć autorytet przywódcy w krytycznym momencie.

Czytaj też

Reklama

Sfałszowane nagrania jako narzędzie ingerencji

Fałszywe treści coraz częściej pojawiają się także w kontekście wyborów, gdzie nawet krótki, zmanipulowany materiał może odwrócić nastroje elektoratu lub podważyć wiarygodność kandydatów. Sfałszowane nagrania, publikowane tuż przed ciszą wyborczą, pozostawiają bardzo mało czasu na reakcję i sprostowania, a dezinformacja nierzadko utrzymuje się w świadomości społecznej znacznie dłużej niż jej późniejsze dementi

Zmanipulowane treści otwierają drogę do ingerencji zewnętrznych podmiotów w wewnętrzne sprawy państw - mogą podsycać napięcia społeczne, osłabiać zaufanie do instytucji publicznych czy nawet wpływać na wynik wyborów. Tego rodzaju taktyki są coraz częściej wykorzystywane w wojnie informacyjnej, a jednym z głównych aktorów stosujących je na szeroką skalę jest Rosja, która konsekwentnie używa dezinformacji jako narzędzia politycznego i geopolitycznego nacisku.

Czytaj też

Reklama

Deepfake, który miał uciszyć wyborców

W styczniu 2024 roku tysiące wyborców w stanie New Hampshire odebrało telefony, w których głos do złudzenia przypominający prezydenta Joe Bidena wzywał demokratów, aby nie uczestniczyli w prawyborach. Fałszywe nagranie przekonywało, że „lepiej zachować swój głos na listopad” - co było oczywistą próbą obniżenia frekwencji w kluczowym momencie kampanii.

Szybko ustalono, że materiał był deepfake’em stworzonym przy użyciu sztucznej inteligencji, a za jego dystrybucję odpowiadał konsultant polityczny związany z Partią Demokratyczną. Tłumaczył on, że chciał jedynie zwrócić uwagę opinii publicznej na niebezpieczeństwa płynące z rozwoju AI, jednak sprawa zakończyła się poważnymi konsekwencjami prawnymi. Władze stanu New Hampshire postawiły mu zarzuty, a Federalna Komisja Łączności (FCC) nałożyła dodatkowe sankcje.

Czytaj też

Reklama

Sfabrykowane wideo jako broń przeciw Mołdawii

Pod koniec sierpnia 2025 roku prorosyjska sieć botów „Matryoshka” rozpowszechniała na platformie X (dawniej Twitter) sfabrykowany film wymierzony w prezydent Mołdawii Maię Sandu. Według projektu monitorującego Bot Blocker materiał został wygenerowany przy użyciu platformy Luma AI, a analiza narzędzia Hive Moderation potwierdziła, że obraz i wideo były tworzone przez sztuczną inteligencję (choć ścieżkę dźwiękową najpewniej nagrał człowiek).

Nagranie przedstawiało Sandu jako niekompetentną i niekonsekwentną przywódczynię, wyśmiewało powolny proces integracji Mołdawii z Unią Europejską oraz odnosiło się do sporów gazowych z Gazpromem i napiętej sytuacji w Naddniestrzu. W materiale pojawiły się także aluzje do prorosyjskiego oligarchy Ilana Shora, którego ugrupowanie Victorie zostało wykluczone z wyborów parlamentarnych zaplanowanych na 28 września.

Czytaj też

Reklama

Regulacje w walce z deepfake

Na rosnące zagrożenie ze strony deepfake«ów i generatywnej AI coraz częściej odpowiadają ustawodawcy - zarówno w Europie, jak i w Stanach Zjednoczonych pojawiają się regulacje mające chronić obywateli przed manipulacją i dezinformacją. 

Unia Europejska przyjęła AI Act, który nakłada na twórców systemów sztucznej inteligencji obowiązki przejrzystości. Technologie generujące lub manipulujące treściami, w tym deepfake’i, muszą być odpowiednio oznaczane, a użytkownicy powinni mieć jasną informację, kiedy mają do czynienia z AI. 

Dania poszła o krok dalej i jako pierwszy kraj w Europie zaproponowała aktualizację prawa autorskiego, która przyznałaby jednostce pełne prawa do własnego wizerunku i głosu. Dzięki temu obywatele mogliby żądać usunięcia nieautoryzowanych deepfake«ów oraz domagać się odszkodowania. Wyjątkiem miałyby być materiały o charakterze satyrycznym lub parodystycznym. 

W Stanach Zjednoczonych mamy natomiast Take it Down Act. Zobowiązuje on platformy do usuwania w ciągu 48 godzin zgłoszonych, niekonsensualnych intymnych materiałów, również wtedy, gdy są one deepfake’ami. To istotne narzędzie w walce z tzw. „deepfake porn”, choć należy pamiętać, że nie obejmuje ono wszystkich kategorii deepfake«ów, np. tych o charakterze politycznym.

Czytaj też

Reklama

AI vs AI

Paradoks współczesnej walki z dezinformacją polega na tym, że najskuteczniejsze narzędzia do wykrywania deepfake«ów stanowią inne algorytmy sztucznej inteligencji. Systemy detekcyjne analizują obraz, dźwięk oraz kontekst semantyczny, identyfikując mikroniespójności, m.in. artefakty na krawędziach obrazu, anomalie w synchronizacji ruchu ust czy charakterystyczne cechy akustyczne głosu.

Badania prowadzone wskazują jednak, że skuteczność tych narzędzi maleje w obliczu nowych technik generowania treści bądź przy zmianie warunków nagrania. Detektory działają poprawnie w obrębie danych treningowych, natomiast tracą efektywność przy materiałach pochodzących z innych źródeł. W konsekwencji tempo rozwoju metod generatywnych przewyższa możliwości ich bieżącego wykrywania.

Czytaj też

CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?

Komentarze

    Reklama