Social media
Wojna w Strefie Gazy. Film z palestyńską modelką to deep fake
Na platformie X krąży filmik, w którym palestyńska modelka wyraża poparcie dla Izraela. Wideo zyskuje rozgłos. Co z nim nie tak?
Fałszywe wideo przedstawiające rzekomo wypowiedź modelki palestyńskiego pochodzenia Belli Hadid zyskało rozgłos na X (dawniej Twitter) – podaje serwis Numerama.
Na platformie Elona Muska pojawił się filmik, w którym kobieta ma wskazywać, że opowiada się po stronie Izraela w wojnie z Hamasem i w pełni zrozumiała historyczny kontekst wydarzeń.
„Mam nadzieję, że w przyszłości będziemy mogli rozpocząć konstruktywny dialog” – mówi rzekomo w nagraniu, które po raz pierwszy opublikowano 28 października br.
Bella Hadid stands with Israel.
— Danel Ben Namer (@DanelBenNamer) October 28, 2023
Sinwar didn’t expect to get this surprise for his 61 birthday 🎈🎂#WeFixedItForBella pic.twitter.com/ZcXy42hP04
To jednak materiał stworzony przy użyciu sztucznej inteligencji, co pokazuje potencjał tego typu rozwiązań. AI daje nowe możliwości, jeśli chodzi o operacje informacyjne. Dezinformacja, propaganda i manipulacje zyskują dodatkową siłę.
Czytaj też
Wideo z Hadid to deep fake
Opublikowany filmik z Bellą Hadid w roli głównej został oznaczony przez X jako wideo powstałe przy użyciu sztucznej inteligencji. W komunikacie wyjaśniono, że scena została zaczerpnięta z ceremonii wręczenia nagród Global Lyme Alliance Awards w 2016 r. kiedy to modelka otrzymała wyróżnienie. W rzeczywistości kobieta wyraża poparcie dla Palestyny.
Najnowsze informacje, analizy, komentarze i wideo dotyczące sytuacji w Strefie Gazy znajdziecie na Defence24.
Czytaj też
Czym jest deep fake?
Materiał z udziałem modelki to przykład deep fake, czyli fałszywego wideo, które powstało w oparciu o wykorzystanie technologii sztucznej inteligencji. Jak informowaliśmy, dzięki AI można podszyć się pod właściwie dowolną postać (wystarczy mieć odpowiednie zasoby, jak zdjęcia, wideo, dźwięk).
Dobrze przygotowane deep fake mogą stanowić skuteczną broń w sferze informacyjnej, przyczyniając się do np. wywoływania chaosu, dezorientacji czy polaryzacji społeczeństwa.
Z tego względu tak ważne jest właściwe oznaczanie stworzonych przy użyciu AI treści. Pokazał przykład chociażby z ostatniej kampanii wyborczej i spotu Platformy Obywatelskiej. Więcej na ten temat pisaliśmy w materiale: PO używa sztucznej inteligencji do spotu wyborczego. Otwiera Puszkę Pandory?
Ciekawi was jak rozpoznać deep fake? Zobaczcie wskazówki eksperta. Znajdziecie je pod linkiem.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany