- ANALIZA
- WIADOMOŚCI
#CyberMagazyn: Deepfake jako nowa broń wojny. Prawda przestaje istnieć
Sytuacja na Bliskim Wschodzi doskonale pokazuje, że mamy do czynienia z nowym modelem wojny informacyjnej. Po zaognieniu sytuacji w regionie w sieci pojawiła się fala treści wygenerowanych przy użyciu narzędzi sztucznej inteligencji. Problemem nie jest już samo istnienie deepfake’ów, ale tempo i skala z jaką zyskują zasięgi. W takich warunkach samo wykrywanie fejków nie wystarczy.
Autor. CyberDefence24/Canva
Jak wskazuje Jennifer Ewbank, pełniąca w przeszłości funkcje Zastępcy Dyrektora CIA ds. Innowacji Cyfrowych, w autorskim tekście When Deepfakes Become Doctrine, wojna nie rozgrywa się wyłącznie w przestrzeni militarnej. Równolegle trwa inne starcie: wojna o wiarygodność obrazu, nagrania i dowodu.
Obecnie Iran nie używa już deepfake’ów jako dodatku do propagandy, lecz jako elementu uporządkowanej doktryny informacyjnej, której celem nie jest tylko przekonanie odbiorcy do konkretnego kłamstwa, ale rozbicie samej możliwości odróżnienia prawdy od fałszu. Z tej racji autorka pisze o przejściu od „dezinformacji” do czegoś znacznie groźniejszego: celowej destrukcji wspólnego pola faktów.
Według opisu przedstawionego przez Ewbank, w pierwszych dniach konfliktu sieć została zalana materiałami rzekomo pokazującymi trafienia w amerykańskie cele, zestrzelone samoloty czy zniszczoną infrastrukturę wojskową.
Problem nie polegał tylko na tym, że były to treści fałszywe, lecz na tym, że rozchodziły się błyskawicznie, zanim pojawiła się skuteczna weryfikacja.
Ten obraz potwierdzają także nowsze analizy. Foundation for Defense of Democracies opisywała w marcu 2026 r. falę proirańskich deepfake’ów krążących na X, Instagramie i TikToku. Z kolei The Guardian pisał o przełączeniu irańskiej aktywności w mediach społecznościowych na pełnoskalową „wojnę informacyjną”, w której konta wcześniej używane do innych kampanii zaczęły nagle promować wyłącznie narracje proirańskie.
Niektóre nagrania wygenerowane są przez AI i ukazują udane ataki na lotniskowiec USS Abraham Lincoln, rzekome uszkodzenia budynków w Tel Awiwie spowodowane bombardowaniem oraz rzekomo płaczących izraelskich żołnierzy ze strachu.
Irańska kampania okazała się na tyle skuteczna, że – jak podaje agencja Reutera – Trump stwierdził, iż Teheran wykorzystuje AI jako „broń dezinformacyjną”.
Zmyślone obraz wojny
W praktyce nie chodzi już wyłącznie o „fałszywe nagranie”. Analiza Tech Policy Press pokazuje, że coraz częściej wykorzystywane są także pseudoeksperckie metody „obalania” autentycznych zdjęć, np. pozornie techniczne heatmapy, zrzuty ekranów z generatorów AI albo błędnie wykonane analizy Error Level Analysis.
Tego typu materiały mają sprawić wrażenie kryminalistyki cyfrowej, choć metodologicznie bywają bezwartościowe. W efekcie syntetyczne wizualizacje przedstawiające bombardowania i zniszczenia krążą obok autentycznych materiałów dokumentujących rzeczywiste wydarzenia, co sprawia, że coraz trudniej odróżnić fakty od fikcji.
Największe redakcje — w tym WIRED, BBC i CNN — już udokumentowały gwałtowny wzrost liczby fałszywych obrazów wojennych generowanych przez AI w internecie.
Dziennikarz BBC Verify Shayan Sardarizadeh zauważył, że konflikt ten może już ustanawiać rekordy pod względem liczby viralowych treści stworzonych przez technologię AI w czasie wojny.
Natomiast badacz OSINT Tal Hagin podkreśla, że problem wykracza poza wprowadzanie w błąd zwykłych użytkowników: skala treści przekracza możliwości weryfikacyjne nawet profesjonalnych redakcji. Autentyczne dowody nie tylko trudniej znaleźć — są one aktywnie „zasypywane” przez szum informacyjny.
Skutki nie są abstrakcyjne. Gdy odbiorcy nie są w stanie odróżnić autentycznych materiałów od zmanipulowanych, łatwiej zaprzeczać zbrodniom. Rzeczywista dokumentacja cierpienia cywilów może zostać odrzucona jako „AI”, a pytania o koszty wojny giną w zalewie spektakularnych, lecz fałszywych treści.
Prawda ma wyglądać jak fałsz
To jest istotne rozwinięcie tezy Ewbank: celem nie jest już wyłącznie to, by fałsz wyglądał jak prawda, lecz także to, by prawda wyglądała jak fałsz.
W tekście „When Deepfakes Become Doctrine” osadza ten problem historycznie. W starszych modelach propagandy — radiu, prasie, powtarzanych materiałach wideo — fałsz był zwykle toporniejszy, wolniejszy i łatwiejszy do zdemaskowania.
Microsoft potwierdził jednak, że już w grudniu 2023 r. grupa Cotton Sandstorm, łączona z Iranem, wykorzystała wygenerowanego przez AI prezentera wiadomości po przejęciu usług streamingowych. Koncern określił ten incydent jako pierwszą wykrytą przez siebie irańską operację wpływu, w której AI odegrała kluczową rolę.
Był to ważny moment przejścia: od prostszej manipulacji do modelu, w którym treść syntetyczna staje się centralnym narzędziem operacyjnym.
Kolejny etap pokazał konflikt izraelsko-irański z czerwca 2025 r. Europejskie Obserwatorium Mediów Cyfrowych przedstawiło go jako „pierwszą wojnę AI”, wskazując, że po raz pierwszy w dużym konflikcie zbrojnym treści generowane przez sztuczną inteligencję zaczęły dominować nad tradycyjną dezinformacją.
Carnegie Endowment oraz WITNESS zwracały przy tym uwagę, że wojna ta ujawniła rosnącą lukę między szybkością produkcji syntetycznych materiałów a zdolnością instytucji, dziennikarzy i platform do ich rzetelnej oceny. Innymi słowy: problemem nie jest już tylko istnienie deepfake’ów, ale to, że ich tempo i skala przekroczyły klasyczne mechanizmy obronne.
Jeden proirański system a w kraju blackout
Szczególnie ważny w parafrazowanym tekście jest wątek skoordynowanej amplifikacji. Platforma Cyabra informowała w marcu 2026 r., że wykryła zorganizowaną kampanię proirańską opartą na sieciach fałszywych kont i botów, które jednocześnie promowały te same treści i hashtagi na wielu platformach.
Jak pisze „The Times”, sieci kont podszywających się pod użytkowników z Londynu, Glasgow czy Dublina po rozpoczęciu ataków „przestawiły się” na narracje proirańskie i antyzachodnie. To wzmacnia główny wniosek Ewbank: nie mamy do czynienia z przypadkowym chaosem użytkowników, ale z architekturą dystrybucji, w której syntetyczny materiał, fałszywe konta i geopolityczna narracja tworzą jeden system.
Dodatkowy, bardzo istotny element to blackout informacyjny wewnątrz Iranu. Jak informowaliśmy, kraj ten doświadczył „niemal całkowitego blackout’u”, z łącznością spadającą do 1% normalnego poziomu.
W takim środowisku reżim nie musi całkowicie wyeliminować wszystkich autentycznych nagrań czy zdjęć. Wystarczy, że ograniczy ich przepływ, a resztę przestrzeni wypełni treścią syntetyczną, półfałszywą albo „analitycznie” podważającą autentyczne materiały. W ten sposób deepfake nie działa samodzielnie, lecz razem z cenzurą, przerwami w łączności i zastraszaniem użytkowników.
Coraz łatwiej podważać prawdę
Strategicznym celem tych operacji nie jest już prosta perswazja, tylko — używając pojęcia z tekstu Ewbank — dezorganizacja epistemiczna.
Ten opis dobrze koresponduje z szerszą literaturą o tzw. „dywidendzie kłamcy”. Jak wskazują Danielle Citron i RobertChesney w analizie Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, rozwój technologii deepfake tworzy tzw. „dywidendę kłamcy”, czyli sytuację, w której samo istnienie realistycznych fałszywych materiałów pozwala podważać autentyczne dowody.
Również jak pokazują badania Cristiana Vaccariego i Andrew Chadwicka, deepfake’i zwiększają niepewność odbiorców i obniżają zaufanie do informacji, co tworzy warunki, w których autentyczne materiały mogą być skutecznie podważane jako fałszywe.
Należy też zwrócić uwagę, że zjawisko to nie sprowadza się wyłącznie do słabości platform.
Meta Oversight Board w marcu 2026 r. stwierdziła, że mechanizmy Meta do oznaczania i wykrywania zwodniczych treści AI nie są wystarczająco solidne ani kompleksowe w warunkach konfliktu zbrojnego. Z kolei Komisja Europejska przypomina, że obowiązki z art. 50 AI Act dotyczące oznaczania treści generowanych lub manipulowanych przez AI zaczną obowiązywać dopiero 2 sierpnia 2026 r. To znaczy, że obecny konflikt rozwija się szybciej niż europejskie mechanizmy przejrzystości wejdą w życie.
Nowy model wojny informacyjnej
Najciekawsza i najmocniejsza część argumentacji Ewbank dotyczy nie samej detekcji, lecz pochodzenia treści.
Standard C2PA (standard provenance) i system Content Credentials rozwijane są właśnie po to, by dokumentować źródło i historię modyfikacji plików cyfrowych. DARPA równolegle rozwija program Semantic Forensics, którego celem jest wzmacnianie technologii analizy syntetycznych i zmanipulowanych materiałów.
Wniosek jest prosty: samo „wykrywanie fejków” nie wystarczy, bo przeciwnik może podrobić również narzędzia detekcji albo obrócić je propagandowo przeciw autentycznym zdjęciom. Potrzebna jest infrastruktura potwierdzania pochodzenia materiału od momentu jego powstania.
Z tej racji problem irańskich deepfake’ów nie sprowadza się wyłącznie do skali produkcji fałszywych obrazów. Mamy już bowiem do czynienia z powstaniem nowego modelu wojny informacyjnej, w którym AI, boty, blackout internetowy, fałszywe „ekspertyzy” i międzynarodowa amplifikacja tworzą jeden ekosystem operacyjny.
Jego celem nie jest tylko wmówienie odbiorcy określonej wersji wydarzeń, ale trwałe uszkodzenie jego zaufania do jakiegokolwiek dowodu. To właśnie sprawia, że deepfake przestaje być narzędziem propagandy, a obrona przed nimi staje się elementem doktryny bezpieczeństwa informacyjnego państwa.



Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Krajowy system e-Faktur - co musisz wiedzieć o KSEF?
Materiał sponsorowany