Reklama

Cyberbezpieczeństwo

#CyberMagazyn: Deepfake z Zełenskim. Czy fejkowe materiały wideo zmienią przebieg wojen informacyjnych?

Autor. Wołodymyr Zełenski; zdjęcie poglądowe / fot. president.gov.ua/

Spreparowane wideo z prezydentem Wołodymyrem Zełenskim obiegło świat, choć szybko zostało zdementowane przez ukraińską głowę państwa. Jednak rzuciło światło na jeszcze jedną odmianę dezinformacji – przy użyciu technologii – deepfake. Czy odegra ona istotną rolę w wojnie w Ukrainie? Czy będzie kluczowa dla przyszłych, potencjalnych konfliktów?

Reklama

Już na początku marca ukraińskie Centrum Komunikacji Strategicznej ostrzegało, że Rosjanie mogą pokusić się nie tylko na klasyczną dezinformację propagowaną przez machinę prokremlowskich mediów państwowych oraz przez sieć rosyjskich trolli, ale także na przygotowanie deepfake, czyli spreparowanego wideo, który w jakiś sposób zaprezentuje Wołodymyra Zełenskiego. Prognozowano, że może ono przedstawiać ukraińską głowę państwa, która ogłosi poddanie się, co mogłoby wprowadzić nie tylko chaos informacyjny, ale przede wszystkim – wywołać kapitulację żołnierzy.

Reklama

Przypomnijmy, że deepfake (słowo stanowi zbitkę angielskich słów - deep learning - głębokie uczenie maszynowe i fake – fałsz) to nowoczesny sposób obróbki nagrań w oparciu o sztuczną inteligencję, który może sprawić, że sfabrykowany obraz – powstały na podstawie zdjęć, filmów lub dźwięków – za pośrednictwem odpowiedniego programu może doprowadzić do stworzenia celowo zmanipulowanego materiału. Powstaje on w oparciu o działanie dwóch algorytmów na podstawie zgromadzonych danych, zastępując (zazwyczaj) twarz jednej osoby inną.

Ta metoda szerzenia dezinformacji - przy pomocy materiałów audiowizualnych - była już wykorzystywana w m.in. wideo z postacią do złudzenia przypominającą Marka Zuckerberga w 2019 roku, co wywołało poruszenie wśród internautów czy w fejkowym przemówieniu Elżbiety II lub byłego prezydenta USA Baracka Obamy.

Reklama

„Deepfake są bardzo niebezpieczne, ponieważ bazują na obrazie. Inny jest odbiór tego, co czytamy, inaczej jest z czymś, co doskonale udaje rzeczywistość. Stąd ryzyko jest znacznie większe, jeżeli chodzi o podważanie wiarygodności” – ocenia w rozmowie z CyberDefence24.pl Monika Borycka, założycielka TrendRadarPL oraz opiekunka merytoryczna studiów Trendwatching & Future Studies na krakowskim AGH.

Czytaj też

W tym tygodniu przekonaliśmy się, że ostrzeżenia okazały się być prorocze. Na Facebooku i YouTube, a później także w innych kanałach mediów społecznościowych m.in. Telegramie czy VKontakte pojawiło się fałszywe wideo, prezentujące Zełenskiego, który prosi żołnierzy, aby złożyli broń (Meta i Google usunęły już fejkowy materiał). Ogólnokrajowa stacja telewizyjna Ukraine 24 poinformowała również, że zhakowano jej pasek informacyjny i nadano wiadomość - od rzekomo Zełenskiego - wzywającą ludność Ukrainy do zaprzestania oporu przeciwko rosyjskiemu agresorowi.

Czytaj też

Deepfake a konflikty zbrojne

Na razie nie wiadomo, kto stworzył i rozpowszechniał fałszywe wideo z Zełenskim. Jednak może to być pierwszy sygnał, świadczący o przyszłym możliwym zwrocie ku fejkowym materiałom wideo, a być może także audio – w machinie dezinformacyjnej Kremla, która obecnie wytacza coraz cięższe działa, by pokazywać Ukrainę i jej obywateli w jak najgorszym świetle.

W tym przypadku pomogła szybka reakcja, słaba jakość wykonanego deepfake'a oraz popularność samego Zełenskiego w mediach społecznościowych. W potencjalnych przyszłych konfliktach, w wykonaniu innych przywódców, dementowanie fejkowych materiałów niekoniecznie może przyjść z taką łatwością. Przykładowo, w Birmie w zeszłym roku pojawiło się wideo, które prezentowało byłego ministra Birmy przetrzymywanego w areszcie, który twierdził, że dostarczył gotówkę i złoto faktycznej przywódczyni kraju Aung San Suu Kyi, co posłużyło do oskarżenia jej o korupcję. Zarzuty postawiono, choć wielu dziennikarzy i obywateli sugerowało, że głos i twarz zostały zniekształcone.

Rosyjski deepfake użyty w czasie trwającej inwazji na Ukrainę został błyskawicznie zdementowany. Jednak był to pierwszy sygnał, że obecnie – w wojnie informacyjnej – choć liczy się słowo, niewykluczone, iż równie istotny jest obraz. Biorąc pod uwagę, że ta technologia będzie coraz doskonalsza, w przyszłych, potencjalnych konfliktach może odegrać już o wiele istotniejszą rolę. Czy jesteśmy na nią gotowi?

Zdaniem Moniki Boryckiej w tym konflikcie deepfake sam w sobie nie będzie miał kluczowego znaczenia - to po prostu kolejny, technologiczny etap szeroko pojętego zjawiska fake news i dezinformacji. „Na pewno to bardziej nowoczesne i wizualne narzędzie siania dezinformacji, które wykorzystuje media syntetyczne, czyli spreparowane z udziałem algorytmów sztucznej inteligencji wideo czy też audio, ale także generowanie fikcyjnych osób udzielających się w różnych mediach społecznościowych. Zachowują się oni, jak przeciętna osoba: publikują posty, opinie. W przypadku tego konfliktu wiemy już, że były przykłady takich >>osób<<, namierzono m.in. dwóch blogerów, którzy okazali się być fikcyjnymi postaciami. Pytanie, ile jeszcze takich fejkowych >>osób<< może funkcjonować w obiegu. Ten przykład pokazuje, że deepfake nie musi być kluczowy w tej cyfrowej wojnie, ale będzie to pole do testowania tej technologii, co pozwoli na udoskonalanie narzędzi wykorzystywanych do dezinformacji” – komentuje dla CyberDefence24.pl Monika Borycka.

Przypomina, że deepfake, nawet taki niedopracowany, ma na celu wywołanie chaosu. „Ten z prezydentem Zełenskim rzeczywiście był niedoskonały, nie do końca wiemy, kto za nim stoi. Jeśli Rosjanie chcieliby wypuścić wysokiej jakości deepfake, to pewnie byliby to w stanie zrobić. Dlatego trzeba się zastanowić czy to nie kolejna próba potęgowania chaosu, w której podważa się nasze zaufanie do jakiegokolwiek przekazu - także tego prawdziwego. Kiedy nie wiemy już, czy to co widzimy i słyszymy wydarzyło się naprawdę, możemy mieć do czynienia z efektem, kiedy łatwo podać w wątpliwość także realne przekazy i wymagać legitymizacji każdego materiału. Łatwo zasiać ziarno niepewności i sugerować, że na przykład prawdziwe wystąpienia Zełenskiego to fejki” – stwierdza.

Kamil Mikulski, starszy analityk zagrożeń hybrydowych w Instytucie Kościuszki i członek grupy eksperckiej Komisji Europejskiej ds. przeciwdziałania dezinformacji oraz rozwoju umiejętności cyfrowych, objaśnia, że deepfakes należą do kategorii tzw. emerging threats, czyli do wschodzących zagrożeń. Oznacza to jednocześnie, że ich wykorzystanie, zwłaszcza na większą skalę, pojawi się dopiero w przyszłości.

„Uważam, że nie możemy mówić o jakimś decydującym znaczeniu wykorzystania tej technologii z kilku powodów. Po pierwsze, ukraińskie służby ostrzegają tzw. Wolny Świat, że Rosja i Białoruś planują wykorzystanie deepfake – np. pozorując ucieczkę Zełeńskiego z Kijowa i niwelują w ten sposób ich potencjalny efekt psychologiczny (jeżeli jest spodziewany, to jego siła rażenia będzie niewielka); po drugie, nie sądzę, by wyraźna przewaga Ukrainy w wojnie informacyjnej mogła być tak szybko utracona, zwłaszcza, ze nie doszło do utraty komunikacji między rządem a obywatelami. Muszę również nadmienić, że nie znam ani jednego niekwestionowalnego przykładu wykorzystania prawdziwego (czyli bardzo zaawansowanego i stworzonego z wykorzystaniem sztucznych sieci neuronowych) deepfake. Pojawia się jednak wiele mniej doskonałych podróbek, czyli tzw. cheap fakes albo shallow fakes - one sieją znaczne spustoszenie, ograniczając naszą świadomość sytuacyjną” – podkreśla analityk.

Jednocześnie Kamil Mikulski jest sceptyczny wobec opinii, że to akurat deepfake będzie decydujący w wojnach informacyjnych przyszłości. „Jeżeli ostatecznym celem np. kampanii dezinformacyjnej jest manipulacja odbiorami, polaryzacja społeczna lub utrudnienie podejmowania decyzji w związku z ograniczoną świadomością sytuacyjną, to bardziej obawiałbym się np. doskonalszego wykorzystania ludzkiej psychologii – np. poprzez profilowanie grup odbiorców i docieranie do nich z odpowiednio przygotowanym przekazem. Deepfake rozpala wyobraźnię, ale wcale nie musi być groźniejszym zjawiskiem niż np. coraz bardziej obserwowalna, dekoncentracja i decentralizacja dezinformacji. Czy wiedzieli państwo, że dezinformacja stała się usługą i że rosyjska dezinformacja bywa rozpowszechniana z państw trzecich, np. afrykańskich?” – kończy swoją wypowiedź pytaniem.

Deepfake kontra Kowalski w sieci

Czy jako użytkownicy jesteśmy gotowi na rozpoznawanie deepfake, skoro z łatwością potrafimy nabierać się na dezinformację, począwszy od tak – zdawałoby się błahych tematów, jak paliwo na stacjach paliw czy gotówka w bankomatach; po tak poważne – jak antyuchodźcze narracje czy fejki o „przygotowaniu broni biologicznej w ukraińskich laboratoriach, finansowanych przez USA”, o czym informowaliśmy na łamach CyberDefence24.pl, opisując regularnie powtarzające się, dezinformacyjne wątki.

Czytaj też

Mikulski jest zdania, że sam deepfake prawdopodobnie stanie się prostszy w wykonaniu i dostępniejszy dla większej liczby adwersarzy. „Coraz niższa bariera wejścia i obiecujący przyszły potencjał tej technologii sprawia, że prawdopodobnie kiedyś go ujrzymy. Być może dobrym pomysłem byłoby ograniczenie jego negatywnych skutków poprzez certyfikacje wystąpień osób publicznych z wykorzystaniem blockchain” – słyszymy.

Monika Borycka przypomina, że powstają narzędzia i technologie, tworzone przez różnego rodzaju organizacje, zajmujące się od dawna weryfikowaniem fake newsów i które będą zajmowały się także detekcją deepfake’ów.

„Oczywiście będzie to zawsze drugi krok: będziemy reagować na to, co już robią twórcy deepfake, więc będą to narzędzia próbujące nadążyć za coraz bardziej wyrafinowanymi sposobami ich tworzenia. Ale już dziś - także przy pomocy sztucznej inteligencji jesteśmy już w stanie zdekodować niektóre z fejkowych wideo. Natomiast wielkie znaczenie ma tu ważniejsza kompetencja: zdobycie świadomości, że my jako odbiorcy możemy mieć z takimi zjawiskami do czynienia. Nie wszyscy wiedzą, że jesteśmy na takim etapie rozwoju technologii, że możliwe jest tworzenie mediów syntetycznych. Ostrzeżenie przed deepfejkami, jakie od początku konfliktu wydawał rząd Ukrainy jest istotne, bo to uświadamianie, jakimi jeszcze sposobami można nas – użytkowników – oszukiwać” – zauważa nasza rozmówczyni.

Natomiast Kamil Mikulski ocenia, że prawdziwego deepfake raczej nie rozpoznamy gołym okiem, jeżeli rozmawiamy o warstwie technicznej. „Mamy większe szanse zauważyć, że coś jest nie tak, jeżeli ów materiał będzie nielogiczny, niezgodny z wcześniej obserwowanymi zachowaniami lub zdrowym rozsądkiem. Przykładowo, nawet najbardziej doskonały technicznie film pokazujący premiera Czech, wypowiadającego wojnę USA będzie budził nasz odruchowy sprzeciw i nie będzie wiarygodny. Przykład być może nieco malowniczy, ale sądzę, że dobrze obrazuje to, co chcę przekazać. Warto pamiętać, że sam deepfake jest tylko substratem wykorzystania określonej technologii, który może służyć m.in. do rozpowszechniania dezinformacji” – uważa ekspert.

Dodaje, że nie sądzi, aby należało zastanawiać się, co spowoduje większe zniszczenia w wojnie informacyjnej, ponieważ zagrożenia hybrydowe mają to do siebie, że wykorzystują na raz kilka kanałów. „Raczej nie staniemy przed wyborem >>co nami skuteczniej manipuluje – technologia przyszłości, czy media<<, ponieważ jeżeli dojdzie do wykorzystania deepfake w kampanii dezinformacyjnej, to odbędzie się to działo przy jednoczesnym wykorzystaniu mediów tradycyjnych, platform społecznościowych, komunikatów na fałszywych lub zhakowanych rządowych stronach internetowych. To wszystko dla zwiększenia jego przekazu” – podkreśla.

Edukacja medialna

W dyskusji o fake newsach i dezinformacji – w jakiejkolwiek formie – chodzi o coś jeszcze: edukację. O jej potrzebie od najmłodszych lat – nauki rozpoznawania fałszywych informacji, krytycznego myślenia, a także umiejętności analizy w oparciu o wiele źrodeł – pisaliśmy wielokrotnie na łamach naszego portalu.

Czytaj też

Według naukowców z Massachusetts Institute of Technology i Obserwatorium Internetu na Uniwersytecie Stanforda w USA, użytkownicy internetu z tzw. Generacji Z (osoby mające obecnie od 9 do 24 lat) są szczególnie narażone na uleganie dezinformacji. Choć wychowane są ze smartfonem w dłoni, nie oznacza to, że nie potrzebują nauki kompetencji medialnych, a wręcz przeciwnie: polska szkoła powinna kłaść jeszcze większy nacisk na rzetelne pozyskiwanie wiadomości, ale i ich weryfikowanie. Dziś zmaganie się z fake newsami wydaje się być przysłowiową walką z wiatrakami, a siatki botów i trollkont wyrastają z prędkością kilkunastu na minutę. Inaczej jednak do problemu podejdziemy wyposażeni nie tylko - w jak najbardziej potrzebną technologię i narzędzia do debugowania fejków, ale także w - niezbędną wiedzę.

Monika Borycka pytana o nas o tę kwestię uważa, że kompetencje użytkowników w sieci będą rosły – wraz z udostępnianiem prostych narzędzi, dzięki którym będziemy mogli sprawdzać tego typu fałszywe informacje. „Być może w przyszłości będzie to działało tak, jak obecne antywirusy, które będą nas ostrzegały, że >>coś zostało zmienione w obrazie<<. Obecnie powinniśmy odwoływać się do już istniejących organizacji fact-checkingowych, portali, autorytetów, dziennikarzy, którzy zajmują się sprawdzeniem i weryfikowaniem fake newsów. Na pewno będą reagowali także na deepfake” – uważa.

Po drugie zaleca, by po prostu: trzy razy zastanowić się, czy na pewno ten obraz nie budzi w nas wątpliwości, a jeśli tak jest, to odwołać się na przykład do mediów tzw. głównego nurtu i sprawdzić, czy podają te same informacje. „Tutaj sprawdza się stara, dziennikarska zasada: powinniśmy korzystać z co najmniej trzech niezależnych źródeł, by podawać dalej informacje. My jako obywatele musimy się tej praktyki uczyć i zachowywać się trochę jak dziennikarze w procesie weryfikacji tego, co widzimy. Jeśli widzimy podejrzany materiał wideo lub słyszymy nagraną rozmowę telefoniczną, która wydaje nam się w jakiś sposób dziwna, to lepiej - zanim podamy ją dalej - sprawdzić to w innym źródle. Dopóki nie uzyskamy tych prostych narzędzi do weryfikacji deepfake'ów” – ocenia ekspertka.

Przypomina też, że konflikty zbrojne i rewolucje przynoszą nowe trendy w komunikacji: kiedy zaczęła się wojna w Iraku, CNN nadawała ją na żywo i obserwowaliśmy 24 godziny na dobę rozwój tej inwazji w telewizji; kiedy mieliśmy do czynienia z rewolucją arabską, w większej części rozegrała się ona na Twitterze. „Teraz mamy pierwszą wojnę w dużej mierze opartą na nowych mediach społecznościowych, takich jak TikTok czy Telegram, a z drugiej strony na filarze związanym z cyberbezpieczeństwem, dezinformacją i zwiększaniem świadomości na temat wojny informacyjnej” – podsumowuje.

Czytaj też

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszciedo nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Reklama

Komentarze

    Reklama