Reklama

Cyberbezpieczeństwo

Jak rozpoznać deepfake? Wskazówki eksperta

Fot. vojta_kucer / pixabay

Deepfake to współczesne zagrożenie, które wraz z rozwojem technologii może być coraz trudniej wykrywalne w sieci. Fałszywe wideo, generowane w oparciu o sztuczną inteligencję może wpływać nie tylko na wizerunek osób czy firm, ale przede wszystkim na przebieg konfliktów. Czy – jako użytkownicy internetu – jesteśmy w stanie rozpoznać deepfake?

Reklama

Wołodymyr Zełenski wzywający do poddania się przez ukraińskich żołnierzy; Tom Cruise łudząco podobny do oryginału; przemawiająca do internautów śp. królowa Elżbieta, Mark Zuckerberg – wszystkie te postaci łączy jedno: z ich wizerunkiem stworzono fałszywe wideo, które – w różnym celu – umieszczono w sieci.

Reklama

Czytaj też

Reklama

Czym jest deepfake?

Przypomnijmy, że tego typu fałszywe wideo to inaczej deepfake (z ang. deep learning - głębokie uczenie maszynowe i fake – fałsz), które opiera się na nowoczesnym sposobie obróbki nagrań w oparciu o sztuczną inteligencję. AI może sprawić, że sfabrykowany obraz powstanie na bazie zdjęć, wideo i dźwięku, a za pomocą programu można podszyć się pod właściwie dowolną postać – podłożyć jej głos i w ten sposób celowo zmanipulować materiał.

O ile ten mechanizm stosowany jest dla żartu czy po to, aby przestrzec innych (jak było to np. w przypadku nagrania z fikcyjną królową Elżbietą II, stworzonego przez Channel 4), o tyle jest niezwykle niebezpieczny – jak w przypadku fałszywego nagrania z prezydentem Ukrainy, rzekomo wzywającym ukraińskich żołnierzy do poddania się.

Czytaj też

Rosnące zagrożenie

Stale rozwijająca się technologia AI, podatność społeczeństwa na dezinformację, prędkość rozprzestrzenienia się fake newsów (które „rozchodzą się” w sieci kilka razy szybciej niż rzetelne informacje) to poważne zagrożenie, które będzie rosło.

Jedynym ratunkiem jest budowanie świadomości odbiorców i edukowanie użytkowników w tym zakresie – by potrafili odróżnić deepfake od prawdziwego materiału wideo. Mogą zastosować do tego także odpowiednie narzędzia.

Czytaj też

Jak rozpoznać, że nagranie to deepfake?

Zdecydowaliśmy się zapytać ekspertów od fact-checkingu, na co zwrócić uwagę, by nie dać się nabrać na fałszywe wideo. Odpowiedzi udzielił nam Adam Majchrzak, analityk Stowarzyszenia Demagog.

„Z definicji wiemy, że deepfake to technika, która uczy się tworzyć m.in. ruchy twarzy na podstawie tysięcy zdjęć lub innych działań sztucznej inteligencji. W rozpoznaniu takich materiałów zwykle wystarczy dokładnie patrzeć i słuchać. Jeżeli słowa wypowiadane na filmie wydają się niewiarygodne/niepasujące do konkretnej osoby lub nad wyraz kontrowersyjne, to pierwszy sygnał, który powinien zwrócić naszą uwagę” – stwiedza.

Kolejna wskazówka to dokładne przyjrzenie się ruchom osoby/osób na filmie. „Sztuczna inteligencja nie zawsze radzi sobie dobrze z odwzorowaniem niewielkich drgnięć ust, mrugnięć czy innych ruchów przy poruszaniu głowy. Z tego powodu autorzy deepfake'ów najczęściej stawiają na statyczne nagrania, gdzie pojawiają się tylko tułów wraz z głową. W przypadku ruchów palców - zwłaszcza tych szybkich - technologia miałaby jeszcze większe problemy ze stworzeniem wiarygodnego obrazu” – podkreśla ekspert.

Jak dodaje, w weryfikacji deepfake'ów może pomóc narzędzie dostępne bezpłatnie na stronie watchframebyframe.com. Umożliwia ono oglądanie nagrania „klatka po klatce”, więc zdecydowanie łatwiej jest dostrzec ewentualne nieprawidłowości, które występują w filmie.

Znakiem szczególnym niech będzie również przyjrzenie się czy nagranie ma punktowe rozmycia na twarzy lub na jej krawędziach.„Każda osoba ma też swoją specyficzną mimikę; dlatego dobrze jest porównać ruchy twarzy osoby widocznej na filmie z innymi nagraniami, by dosłownie upewnić się „czy to na pewno ona. Oczywiście istnieją też inne bardziej specjalistyczne narzędzia, które potrafią wykryć więcej takich niespójności w automatyczny sposób” – mówi CyberDefence24.pl Adam Majchrzak z Demagoga.

Czy deepfake to rosnące zagrożenie?

Jak wskazywaliśmy na łamach #CyberMagazynu, rosyjski deepfake w postaci fałszywego nagrania z prezydentem Zełenskim - użyty w czasie trwającej inwazji na Ukrainę - został błyskawicznie zdementowany.

Jednak był to pierwszy sygnał, że obecnie – w wojnie informacyjnej – choć liczy się słowo, niewykluczone, iż równie istotny jest obraz. Tym bardziej, że obecnie w coraz większym stopniu w mediach społecznościowych znaczenie ma szybkość, a uwaga odbiorcy – scrollującego informacje w poszukiwaniu interesujących dla niego - skupia się na obrazie i wideo, a - jak pokazują różne badania na temat konsumpcji mediów społecznościowych - coraz mniej na tekście.

Obecnie istnieją już programy i aplikacje, które umożliwiają samodzielne i szybkie stworzenie deep fake, co – jeśli chodzi o potencjał ich rozpowszechniania przy nieprawidłowym użyciu takiego wideo – może być poważnym zagrożeniem.

Adam Majchrzak stwierdza jednak, że wykorzystanie technologii deepfake w kontekście filmów niekoniecznie musi być uznawane tylko za „zagrożenie".

„Najpewniej będzie bardzo przydatne m.in. w kinematografii. Na razie jednak najczęściej można spotkać się z przypadkiem wykorzystania deepfake'ów w formie internetowych żartów lub popisów z wykorzystaniem technologii. Czym innym jest jednak sytuacja, gdzie ktoś postanowi wykorzystać taki materiał w celach dezinformacyjnych. Z takimi przypadkami już zaczynamy się mierzyć” – zaznacza.

Jego zdaniem, w perspektywie najbliższych pięciu lat technologia na pewno poczyni duże postępy i najpewniej na własne oczy trudniej będzie ocenić, czy materiał został sztucznie wygenerowany.

„Na razie jednak główni aktorzy dezinformacji mają wiele innych metod, a przede wszystkim tańszych i szybszych w wykonaniu. Ktoś, kto rozpowszechnia fałszywe informacje, mógłby zapytać: po co poświęcać czas na generowanie nagrania, jeżeli jako fake news z dużym powodzeniem sprawdza się też zwykły obrazek lub filmik wyrwany z kontekstu? Być może deepfake nigdy nie stanie się głównym narzędziem siania dezinformacji, ale potencjalnie może przydać się w pewnych specyficznych sytuacjach, takich jak duży chaos informacyjny czy panika, by podburzyć pewne nastroje” – uważa.

Czy w kontrze do narzędzi, które potencjalnie mogą służyć do szerzenia dezinformacji powstaną inne, które jednoznacznie – z pomocą sztucznej inteligencji – będą potrafiły ocenić ze 100 procentową pewnością, że mamy do czynienia z fejkiem?

Czytaj też

Ekspert Demagoga patrzy w przyszłość z nadzieją: „Z pewnością powstaną też doskonalsze automatyczne i bardziej powszechne metody wykrywania deepfake'ów, powstających ze złym zamiarem, co powinno ułatwić ograniczenie ich rozpowszechniania” – podsumowuje.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama