Reklama

Cyberbezpieczeństwo

#WeryfikujMY. Jak przeanalizować potencjalnie fałszywe wideo?

Kamala Harris. W kampanii prezydenckiej w USA będą pojawiać się fałszywe wideo. Jak przeanalizować deepfake?
Kamala Harris. W kampanii prezydenckiej w USA będą pojawiać się fałszywe wideo. Jak przeanalizować deepfake?
Autor. Colin Lloyd/ Unsplash

3,4 mln wyświetleń i ponad 6 tys. udostępnień. Takie zasięgi osiągnęło jedno z udostępnionych nagrań na platformie X w lipcu tego roku. Dotyczy ono wypowiedzi Kamali Harris, kandydatki na prezydenta USA z ramienia partii Demokratycznej. Co ważne, zostało zmanipulowane.

Mowa o poniższym nagraniu.

Kamala Harris Fake news
Zrzut ekranu nagrania przemówienia Kamali Harris z podłożonym głosem.
Autor. @stillgray / platforma X
Reklama

Co należy sprawdzić, weryfikując nagranie?

Na początku, spójrzmy na autora oraz źródło informacji. W tym przypadku jest nim @stillgray - użytkownik X, zamieszczający regularnie treści wygenerowane przez AI na swoim profilu. Przykładem może być  udostępniony przez użytkownika post z wygenerowanymi scenami z serii „Władca Pierścieni”.. Wiele wpisów wskazuje także na jego uczestnictwo w agitacji politycznej przeciwko kandydatce z ramienia Demokratów - takie profile nie mogą być źródłem rzetelnych, obiektywnych informacji. 

Następnie skupmy się na tym, kiedy informacja została udostępniona. Czy źródło zostało jasno wskazane? Oczywiście, że nie. Takie deep fake’i i fake newsy są często wiele razy - nawet kilka lat później - powielane. To nieprawdziwe wideo było udostępnione już wcześniej - w 2023 roku.

Reklama

Najlepsze narzędzie do weryfikacji?

Aby poznać rzeczywistą datę, miejsce oraz okoliczności wydarzenia, uważnie przyjrzyjmy się nagraniu. Na tym przykładzie, spójrzmy nie tylko na samą Kamalę Harris i na to, co mówi, ale na wszystko, co ją otacza, czyli osoby za nią; banery, które trzymają.

Tło często jest kluczową częścią nagrania, kiedy nie mamy pewności, czy wideo było modyfikowane.

W analizie filmów mogą nam pomóc narzędzia watchframebyframe oraz scanner deepware.ai.

Czytaj też

Narzędzia przydatne w analizie wideo

Scanner deepware.ai to narzędzie umożliwiające wklejenie linku strony, na którym znajduje się wideo lub zapisanego na naszym urządzeniu. Linki z niektórych źródeł nie są jednak obsługiwane, dlatego konieczne będzie wcześniejsze pobranie materiału, bądź np. nagranie ekranu.

Z kolei Watchframebyframe to narzędzie służące do oglądania wybranych filmów w spowolnieniu i „klatka po klatce”. To przydatna strona w odniesieniu do niuansów, których możemy nie dostrzec na pierwszy rzut oka oraz w tempie, w którym odtwarzany jest oryginalny materiał. Wadą strony jest ograniczenie do obsługi linków z Youtube’a oraz Vimeo. Dlatego w tej analizie nie możemy go wykorzystać do filmów np. z serwisu X.

Reklama

Analiza Scanner deepware.ai

Scanner deepware.ai nie wykazał użycia metody deepfake w tym filmie. Jednak może to być podpowiedź dla analizy. Jeśli wynik nie wskazuje na użycie sztucznej inteligencji, mamy przynajmniej dwa wyjścia:

  1. Obraz nie został zmanipulowany graficznie. To może oznaczać, że ktoś wykorzystał prawdziwe nagranie, a zmodyfikowany został jedynie jeden z elementów, np. głos.
  2. Program, np. przez słabszą rozdzielczość filmu, nie jest w stanie wykryć niektórych elementów.
analiza scanneru deepware ai
Wyniki analizy wideo Kamali Harris:"Today is today".
Autor. scanner.deepware.ai

Glos Kamali Harris jest zmanipulowany

Poza dość irracjonalną treścią przemówienia obecnej wiceprezydent Stanów Zjednoczonych, naszą podejrzliwość mogą wzbudzać wyświetlone pod Kamalą Harris napisy, które rozpoczynają się mniej więcej od 2 sekundy wideo.

Na początku zobaczymy napis na mównicy, który mówi nam, czego ma dotyczyć wystąpienie, za Harris stoją dwie osoby trzymające banery. Nagranie jest niewyraźne, dlatego nie jesteśmy w stanie odczytać słów tam umieszczonych.

Ze stopklatki na początku filmu można z kolei przeczytać dwa słowa: reproductive (z miejsca na mównicy Harris) oraz freedom (które widoczne jest na banerze osoby stojącej za nią).

Kiedy wpiszemy w google frazę: „reproductive freedom Kamala Harris speech”, pierwsze wyniki będą dotyczyć ostatnich wypowiedzi wiceprezydentki na ten temat. Nie szukając długo na platformie Youtube - używając tej frazy - natrafimy na wideo opublikowane rok temu przez New York Post.

YouTube cover video
Przemówienie Kamali Harris z 25 kwietnia 2023 roku.

Ruchy oraz gestykulacja na filmie z Youtube oraz tego z platformy X zgadzają się w 100 proc. Na filmie widoczne są też te same postacie z tyłu. Nie zgadza jednak głos i przekaz Kamali Harris.

Z opisu pod filmem Youtube możemy poznać datę prawdziwego wydarzenia, które po wpisaniu do wyszukiwarki, przekieruje nas na stronę rządową - z oficjalnym transkryptem z całego przemówienia. Z tekstu dowiemy się, jaka była jego prawdziwa treść , która oczywiście różni się od tego z filmu opublikowanego w serwisie X. Możemy mieć więc pewność, że właśnie ta część nagrania została zmanipulowana, a nagranie z X jest fałaszywe.

Aplikacje do weryfikacji. Przydatne czy nie?

Narzędzia, takie jak Watchframebyframe czy Scanner deepware.ai mogą być bardzo pomocne  przy wątpliwościach związanych z wybranym wideo. Czy zawsze się przydają? Niestety nie. Możliwości takich stron są ograniczone, a ich wyniki musimy traktować jako podpowiedź i kierunek do dalszych poszukiwań. Nie mogą stanowić niepodważalnego dowodu na autentyczność nagrań.

Najważniejszy jest research, umiejętność szukania sprawdzonych informacji (z oficjalnych źródeł) oraz krytyczne myślenie. Tylko wyszukiwanie w kilku sprawdzonych źródłach i stopniowe wyciąganie wniosków są gwarantem dojścia do prawdy i obalenia fake newsów.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:*[email protected].*

Reklama

Komentarze

    Reklama