Reklama
  • ANALIZA

#CyberMagazyn: Deepfake zagrożeniem dla bezpieczeństwa. Jak się chronić?

Deepfake może być poważnym zagrożeniem dla bezpieczeństwa - twierdzą amerykańskie służby. Czy da się na nie przygotować? Organizacje już teraz powinny opracować plan działania, inaczej narażają się na ryzyko utraty reputacji, informacji czy oszustwa.

Jak deepfake może zagrozić firmie czy jej pracownikom?
Jak deepfake może zagrozić firmie czy jej pracownikom?
Autor. Evgeniy Alyoshin/ Unsplash
Reklama

O deepfake pisaliśmy już na łamach CyberDefence24.pl wiele razy, m.in. w kontekście zagrożenia dezinformacją w czasie wojny (tu warto wspomnieć przykłady fałszywego wideo z prezydentem Ukrainy, wzywającym do rzekomego poddania się czy Władimira Putina wyemitowanego w zhakowanych rosyjskich kanałach telewizyjnych, apelującego o „wprowadzenie stanu wojennego”).

Reklama

Najnowszym przykładem fałszywego materiału wideo jest „wypowiedź” modelki palestyńskiego pochodzenia Belli Hadid, które pojawiło się na platformie X i szybko zyskało rozgłos. Kobieta ma rzekomo wskazywać, że opowiada się po stronie Izraela w wojnie z Hamasem i „w pełni zrozumiała historyczny kontekst wydarzeń”. To kolejna publikacja, która bazuje na silnych emocjach i wykorzystuje trwający konflikt, by polaryzować odbiorców.

Innym takim przykładem mogą być fałszywki o charakterze politycznym, wykorzystywane po to, by zaatakować rywala w kampanii wyborczej. W Polsce materiały wygenerowane przy pomocy AI w ostatnich miesiącach użyła Koalicja Obywatelska. Została jednak ostro skrytykowana za początkowy brak ich oznaczenia. Więcej na temat deepfake«ów w kampanii pisaliśmy między innymi w tym materiale.

Reklama

Najnowszym przykładem może być scam z wideo wygenerowanym przy użyciu technologii sztucznej inteligencji, w którym były prezydent Aleksander Kwaśniewski mówi o fałszywej inwestycji.

Problem, jaki stwarzają obrazy, wideo czy audio wygenerowane przy pomocy sztucznej inteligencji zauważyła Agencja Bezpieczeństwa Narodowego (NSA), Federalne Biuro Śledcze (FBI) oraz Agencja Bezpieczeństwa Cybernetycznego i Infrastruktury (CISA). W jakim kontekście przestrzegają przed tego rodzaju treściami?

Reklama
Reklama

Deepfake zagrożeniem dla bezpieczeństwa

Reklama

Jako główne zagrożenia wskazano: ryzyko dla marki/ reputacji organizacji; możliwość podszywania się pod liderów/ ważne osoby w firmie np. dyrektorów finansowych; uzyskanie dostępu do sieci/ wrażliwych informacji/ komunikacji; łatwiejsze przeprowadzanie złośliwych kampanii np. phishingowych. To z kolei od odbiorców będzie wymagało znacznie większych umiejętności rozpoznania tego typu działań socjotechnicznych niż obecnie.

W opublikowanym przez służby dokumencie wskazano na dobre praktyki, sposoby jak organizacje powinny identyfikować deepfake, bronić się przed nim i na nie reagować.

Reklama

Zdaniem badaczki NSA specjalizującej się w kryminalistyce multimedialnej „organizacje i ich pracownicy muszą nauczyć się rozpoznawać techniki tworzenia deepfake«ów oraz mieć plan reagowania i minimalizowania wpływu, jeśli zostaną zaatakowani”.

Jak dodała, „narzędzia i techniki manipulowania materiałami multimedialnymi nie są nowe”, ale łatwość i skala, z jaką cyberprzestępcy je wykorzystują już tak. „Stwarza to nowy pakiet wyzwań dla bezpieczeństwa narodowego” – oceniła Candice Rockell Gerstner.

Reklama

To właśnie kwestia czasu, skali i braku umiejętności technicznych z powodu coraz większej dostępności narzędzi do tworzenia deepfake sprawia, że masowa produkcja fałszywek staje się znacznie prostsza i tańsza. To z kolei sprawia, że należy spodziewać się, iż problem dezinformacji i oszustw zdecydowanie nie zniknie. Wręcz przeciwnie: do 2030 roku rynek generatywnej sztucznej inteligencji przekroczy kwotę 100 mld dolarów, rosnąc rocznie średnio o 35 proc..

Nadzieją na rosnącą skalę zjawiska – w kontrze do możliwości wykorzystania deepfake przez złośliwych aktorów – ma być fakt, że ulepszone zostaną także technologie identyfikacji i zwalczania tego zjawiska. Jak na razie jednak detektory treści zawodzą, często wskazując, że określona treść została wygenerowana przez AI, choć w rezultacie… stworzył ją człowiek.

Reklama
Reklama

Jak się chronić?

Reklama

W dokumencie czytamy, że organizacje już teraz mogą podjąć konkretne kroki, aby identyfikować, reagować i bronić się przed zagrożeniem deepfake. Już w latach 2021-2022 eksperci z amerykańskich agencji rządowych wskazali na najlepsze praktyki, jakie warto zastosować, by przygotować się na rosnące wyzwania wynikające ze skali i coraz doskonalszych form podróbek. Jakie praktyki zatem warto wdrożyć?

  • Wprowadzić możliwości i procedury weryfikacji tożsamości użytkowników w czasie rzeczywistym oraz sprawną komunikację. Dlaczego będzie to istotne? Biorąc pod uwagę szybki rozwój AI i coraz doskonalsze formy deepfake, złożona weryfikacja (poprzez np. wieloskładnikowe uwierzytelnienie – MFA) będzie szczególnie istotna np. w czasie transakcji finansowych, kiedy trzeba będzie udowodnić swoją tożsamość, by żadne dane osobowe/biometryczne/inne nie zostały podrobione.
  • Jako podstawowe zalecenia w procesie weryfikacji deepfake wskazano: wykonanie kopii nośników danych; sprawdzenie źródła (czy dane medium/ organizacja jest godna zaufania); zastosowanie funkcji „odwrotne wyszukiwanie obrazów”, jaką umożliwia np. TinEye; wyszukiwarka grafiki Google czy wyszukiwanie w Bing; przebadanie obrazu samodzielnie: przyjrzenie się, posłuchanie czy nie ma oczywistych oznak manipulacji; szukanie cech fizycznych, które nie są możliwe (np. zmienionych kształtów, rozmazanych części ciała itd.); czy w audio zostały dodane filtry, szumy itd.; sprawdzenie metadanych pliku. To tylko kilka ze wskazówek, jakie wybraliśmy dla początkujących czytelników.

Dodatkowo amerykańskie służby odpowiedzialne za bezpieczeństwo radzą, aby firmy i organizacje wdrożyły szereg technologii do wykrywania nieautentycznych materiałów. Chodzi nie tylko o wspomnianą już weryfikację w czasie rzeczywistym (czy przy pomocy deepfake nie uda się podszyć pod daną osobę), ale też o technikę pasywnego wykrywania fejków oraz zabezpieczenia osób, których praca charakteryzuje się „wysokim priorytetem”.

Reklama

Minimalizowanie zagrożenia deepfake to również kwestia udostępniania informacji w organizacjach, planów komunikacyjnych i ćwiczeń dotyczących reakcji na ewentualne próby wykorzystania deepfake do złamania zabezpieczeń firmy. Zatem niezbędne – także pod tym kątem – stanie się szkolenie zespołów.

Trening czyni mistrza?

Jak wskazano w dokumencie, sztucznie wygenerowane obrazy czy audio zagrażają zarówno marce i reputacji organizacji, jak i jej liderom czy osobom odpowiedzialnym za finanse. „Oprócz szkodzenia markom i finansom, media wygenerowane przy pomocy AI mogą również powodować niepokoje społeczne poprzez rozpowszechnianie fałszywych informacji na tematy polityczne, społeczne, wojskowe lub gospodarcze” - czytamy w publikacji.

Reklama

Dlaczego stanowi to zagrożenie dla bezpieczeństwa narodowego? Obecnie wiele algorytmów opartych na głębokim uczeniu jest już dostępnych w open source. Zastosowanie tych technologii wymaga jedynie osobistego laptopa i minimalnych umiejętności technicznych, właśnie dlatego - zdaniem służb - stanowi to zagrożenie dla bezpieczeństwa narodowego.

Służby zachęcają, by specjaliści cyberbezpieczeństwa uwzględnili zagrożenie deepfake w swoich szkoleniach np. wewnętrznych dla pracowników, by pokazać im, jakie potencjalne szkody mogą wyrządzić deepfake’i, których celem jest naruszenie reputacji firmy, nadszarpnięcie zaufania do wysoko postawionej w firmie osoby czy jak mogą zakończyć się próby wyłudzenia pieniędzy.

Reklama

„Pracownicy powinni znać standardowe procedury reagowania na podejrzenia zmanipulowanych treści i rozumieć mechanizmy zgłaszania tego typu działalności w ich organizacji” – wskazano.

W Polsce tego typu praktyki to wciąż raczej pieśń przyszłości.

Reklama
Reklama
Reklama

Zobacz również

CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?