Armia i Służby
#CyberMagazyn: Wojny i konflikty. Musimy umieć walczyć z deepfake’ami
Fikcyjne materiały stworzone za pomocą algorytmów już teraz są wykorzystywane w ramach konfliktów, aby stworzyć sobie przewagę nad adwersarzem. Przykładem jest fałszywe wideo prezydenta Zełenskiego, który rzekomo nawoływał Ukraińców do poddania się Rosji. Postęp technologiczny odciska swoje piętno również w wojnie informacyjnej. Musimy umieć walczyć z deepfake’ami.
Rzeczywistość, w której obecnie funkcjonujemy oddziałuje na wiele aspektów naszego życia, zarówno z perspektywy indywidualnej, jak i grupowej, społecznej.
Z jednej strony obserwujemy postęp technologiczny, sprawiający, że świat staje się coraz bardziej cyfrowy. Zewsząd otaczają nas komputery, smartfony, inteligentne urządzenia itp. a internet stał się integralną częścią codzienności. Wielu nie wyobraża sobie życia bez regularnego sprawdzania „co słychać w sieci”.
Z drugiej, mamy do czynienia z napiętą sytuacją na poziomie międzynarodowym. Nie musimy wybiegać za daleko, aby to zauważyć. Wystarczy spojrzeć, w jakim położeniu znalazła się Polska i co dzieje się za jej wschodnią granicą.
Wywołana przez Rosję wojna w Ukrainie jest zjawiskiem, które bezpośrednio zagraża bezpieczeństwu narodowemu RP. Wynika to chociażby z ryzyka np. eskalacji konfliktu, napływu migrantów czy incydentów granicznych, takich jak ten w Przewodowie.
Jednak Ukraina to nie jedyny region, gdzie toczą się wojny i konflikty (m.in. Irak, Syria, Meksyk – wojna narkotykowa). Na trudną sytuację międzynarodową wpływają również tarcia poniżej progu wojny pomiędzy krajami/społeczeństwami i ich rywalizacja.
Klasycznym przykładem mogą być Chiny-Tajwan, Chiny-USA, Izrael-kraje arabskie, Rosja-NATO. To wszystko oddziałuje na globalny ład i jego stabilność oraz bezpieczeństwo. W efekcie napięć rodzą się konflikty, podczas których wykorzystywane są różne techniki/metody/narzędzia realizacji celów i uzyskania przewagi nad wrogiem.
Czytaj też
Wojna a komunikacja
Jednym z obszarów, gdzie rozgrywają się konflikty jest komunikacja. W trakcie prowadzenia działań każda ze stron stara się oddziaływać na jednostki zarówno w wymiarze wewnętrznym (np. mobilizować swoich obywateli), jak i zewnętrznym (m.in. budować chaos wśród społeczności adwersarza).
Poza wystąpieniami publicznymi np. przedstawicieli władz i osób wpływowych oraz rolą tradycyjnych mediów (prasa, radio, telewizja), istotne znaczenie w procesie komunikacji odgrywa internet. To dzięki niemu treści mogą być publikowane na szeroką skalę w czasie rzeczywistym i zyskiwać szerokie grono odbiorców, co pozwala na skuteczniejsze prowadzenie działań.
Oszustwa i manipulacje zawsze stanowiły część komunikacji wojennej. Jednak rozwój technologiczny i digitalizacja sprawiły, że pojawiły się w tym obszarze nowe możliwości. Pojęcie „fake news” czy „dezinformacja” weszły do powszechnego obiegu ze względu na popularność tych zjawisk, które stały się integralną częścią współczesnych kampanii informacyjnych i szerzej – wojny kognitywnej.
Dobrym przykładem jest wojna w Ukrainie. W jej ramach Rosja rozpowszechnia dezinformację (za pomocą m.in. fabryk trolli) na temat konfliktu, aby w ten sposób oddziaływać na ukraińskie i zachodnie społeczeństwa. Kreml próbuje wybielać siebie i tłumaczyć „konieczność podjęcia interwencji” u naszego wschodniego sąsiada, nazywając zbrojną agresję „operacją przeciwko nazistom”.
Fake newsy tworzone przez rosyjską machinę mają również m.in. zaprzeczać zbrodniom wojennym dokonywanym przez siły Putina, podważać suwerenność Ukrainy i dyskredytować jej partnerów i sojuszników, w tym Polskę.
Czytaj też
Siła algorytmów
Jednak rozwój technologiczny się nie zatrzymuje. Pojawiają się nowe możliwości w zakresie komunikacji i prowadzenia działań informacyjnych. Zauważano, że sztuczna inteligencja jest w stanie podnieść skuteczność operacji w infosferze w taki sposób, aby w jeszcze większym stopniu wpływać na jednostki i całe społeczeństwa.
Tak narodziło się zjawisko nazwane „deep fake”. Oznacza ono zmanipulowane komputerowo obrazy i nagrania przedstawiające np. fałszywe wypowiedzi osób publicznych generowane przy pomocy algorytmów.
Technologia daje każdemu możliwość na stworzenie nagrania lub obrazu, który może sugerować, że jakaś osoba – np. polityk – wypowiedziała słowa, jakie w rzeczywistości nie padły. Wszystko za sprawą algorytmów sztucznej inteligencji, które potrafią wygenerować cudzy głos lub wizerunek i posłużyć za narzędzie manipulacji.
Czytaj też
Podróbka Zełenskiego
Deepfake to nie jedynie sfera science - fiction. W czasie wojny w Ukrainie (niedługo po rosyjskiej inwazji) w sieci pojawiło się spreparowane wideo z prezydentem Wołodymyrem Zełenskim. Fikcyjne nagranie krążyło na Facebooku, YouTube oraz innych platformach i przedstawiało ukraińskiego prezydenta, który rzekomo miał nawoływać swoich żołnierzy do złożenia broni.
Kijów natychmiast podważył autentyczność filmiku, wskazując, że to przykład deepfake wypuszczonego przez Rosjan. Właściciele platform, jak Meta i Google, szybko podjęli kroki i usunęli nagranie ze swoich serwisów.
Ten przykład pokazuje jednak, że omawiana technologia ma potencjał i będzie wykorzystywana w ramach operacji informacyjnych, również w podczas wojen i konfliktów.
Czytaj też
Fascynacja algorytmami
Przewidywany wzrost popularności deepfake'ów wiąże się z rozwojem sztucznej inteligencji, jej coraz większym poziomem zaawansowania, przy równoczesnym spadku kosztów z tym związanych.
Trend ten odzwierciedlają chociażby głośne w ostatnim czasie narzędzia, takie jak np. Chat GPT, służące do generowania treści i zabawy słowem przy użyciu technologii. Nie brakuje także rozwiązań do obróbki graficznej przy użyciu algorytmów. Czy to początek „nowego etapu”, kiedy AI będzie tworzyła za nas treści pisane, grafiki i wideo?
Na pewno znaleźliśmy jesteśmy w fazie fascynacji tą technologią, co potwierdza chociażby popularność i zainteresowanie narzędziami podobnymi do Chat GPT. Pomimo że posiada ono wiele słabych punktów i tylko z pozoru potrafi „wypowiadać się” jak człowiek, to należy przypuszczać, że z czasem mogą pojawić się udoskonalone wersje.
W efekcie pojawią się rozwiązania, które będą w stanie samodzielnie np. tworzyć hity filmowe czy pisać bestsellery.
Czytaj też
Potrzebujemy systemu
Ryzyko związane z deepfake'ami wykorzystywanymi przez adwersarza/y) skłania do rozważań na temat tego, w jaki sposób można walczyć z tym zjawiskiem. W większości przypadków na obecnym etapie odróżnienie fikcyjnego nagrania od prawdziwego nie jest trudne. Zwykle widać to na pierwszy rzut oka (np. zniekształcone tło, postaci, części ciała wydają się być „wklejone” i niespójne z całością).
Jednak wraz z rozwojem technologii „fałszywki” staną się jeszcze bardziej zaawansowane, złożone, a tym samym trudniejsze do zweryfikowania. Z tego względu przedstawiciele władzy powinni zastanowić się nad stworzeniem specjalnego mechanizmu/systemu monitoringu i komunikacji ze społeczeństwem na wypadek pojawienia się deepfake'ów.
W przypadku tego typu treści niezbędna jest szybkość działania, ponieważ fejkowe materiały – dzięki m.in. emocjonalnemu wydźwiękowi – dynamicznie rozprzestrzeniają się w sieci i zyskują zasięgi. Posiadanie skutecznego systemu pozwoliłoby skrócić czas podważenia nieprawdziwej treści, która pojawiłaby się w przestrzeni informacyjnej.
Poza tym stworzony kanał komunikacji na wypadek deepfake'ów powinien charakteryzować się rzetelnością, aby odbiorcy treści mogli mu ufać. Tylko poprzez zaufanie można podjąć walkę z dezinformacją. Chodzi o to, aby jak największa liczba obywateli odrzuciła fikcyjny materiał i skupiła swoją uwagę na wiarygodnym przekazie.
Czytaj też
Deepfake. Wojsko i służby
Deepfake to wyzwanie nie tylko dla rządu, ale i wojska oraz służb bezpieczeństwa. Ich przedstawiciele muszą być świadomi, że zaawansowane fałszywki już teraz są wykorzystywane w ramach konfliktów, wojen oraz w czasie pokoju. A w przyszłości prawdopodobnie dojdzie do częstszego wykorzystania tego typu technologii, na co podmioty odpowiedzialne za ochronę i obronę państwa muszą być gotowe.
Owa gotowość odnosi się zarówno do stworzenia efektywnego systemu monitorowania, wykrywania, neutralizacji operacji z użyciem deepfake'ów, jak i podnoszenia wiedzy, umiejętności i świadomości wśród pojedynczych żołnierzy i funkcjonariuszy, którzy nie żyją w oderwaniu od infosfery (posiadają dostęp do sieci, mediów itd. i mogą być poddawani wrogim operacjom).
Problem stanie się jeszcze bardziej złożony i zaawansowany, gdy spreparowane za pomocą algorytmów materiały wysokiej jakości (na pierwszy rzut oka trudne do identyfikacji jako fejkowe) staną się elementem działań wojskowych i wywiadowczych, a nie jedynie kampanii wpływu czy propagandy. Dlatego też istotne jest skupienie się na tym problemie już teraz, aby odpowiednio wcześnie wykształcić skuteczne rozwiązania w celu neutralizacji potencjalnego zagrożenia.
Czytaj też
Jeszcze większa odpowiedzialność
Oczywiście deepfake to także wyzwanie dla samego społeczeństwa. Wystarczy przytoczyć środowisko dziennikarzy, których zadaniem (przynajmniej w teorii) jest rzetelne informowanie obywateli o bieżących wydarzeniach.
Zaawansowane fałszyki mogą sprawić, że przedstawiciele mediów będą „wpadać w pułapki” dezinformacji i tym samym nieświadomie realizować zamiary adwersarza. Takie napędzanie zasięgów fejkom sprawia, że coraz więcej osób wciąganych jest w sieć fake newsów, co rodzi ryzyko pojawienia się wewnętrznych podziałów i napięć. A to osłabia społeczeństwo i państwo.
Z tego względu dziennikarze będą musieli być jeszcze bardziej ostrożni i uważni. Ich praca stanie się jeszcze bardziej odpowiedzialna i znacząca z perspektywy walki z dezinformacją.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu.Piszcie do nas na: [email protected].