Reklama

Cyberbezpieczeństwo

#CyberMagazyn: Deepfake zagrożeniem dla bezpieczeństwa. Jak się chronić?

Jak deepfake może zagrozić firmie czy jej pracownikom?
Jak deepfake może zagrozić firmie czy jej pracownikom?
Autor. Evgeniy Alyoshin/ Unsplash

Deepfake może być poważnym zagrożeniem dla bezpieczeństwa - twierdzą amerykańskie służby. Czy da się na nie przygotować? Organizacje już teraz powinny opracować plan działania, inaczej narażają się na ryzyko utraty reputacji, informacji czy oszustwa.

Reklama

O deepfake pisaliśmy już na łamach CyberDefence24.pl wiele razy, m.in. w kontekście zagrożenia dezinformacją w czasie wojny (tu warto wspomnieć przykłady fałszywego wideo z prezydentem Ukrainy, wzywającym do rzekomego poddania się czy Władimira Putina wyemitowanego w zhakowanych rosyjskich kanałach telewizyjnych, apelującego o „wprowadzenie stanu wojennego”).

Reklama

Najnowszym przykładem fałszywego materiału wideo jest „wypowiedź” modelki palestyńskiego pochodzenia Belli Hadid, które pojawiło się na platformie X i szybko zyskało rozgłos. Kobieta ma rzekomo wskazywać, że opowiada się po stronie Izraela w wojnie z Hamasem i „w pełni zrozumiała historyczny kontekst wydarzeń”. To kolejna publikacja, która bazuje na silnych emocjach i wykorzystuje trwający konflikt, by polaryzować odbiorców.

Czytaj też

Innym takim przykładem mogą być fałszywki o charakterze politycznym, wykorzystywane po to, by zaatakować rywala w kampanii wyborczej. W Polsce materiały wygenerowane przy pomocy AI w ostatnich miesiącach użyła Koalicja Obywatelska. Została jednak ostro skrytykowana za początkowy brak ich oznaczenia. Więcej na temat deepfake«ów w kampanii pisaliśmy między innymi w tym materiale.

Reklama

Najnowszym przykładem może być scam z wideo wygenerowanym przy użyciu technologii sztucznej inteligencji, w którym były prezydent Aleksander Kwaśniewski mówi o fałszywej inwestycji.

Problem, jaki stwarzają obrazy, wideo czy audio wygenerowane przy pomocy sztucznej inteligencji zauważyła Agencja Bezpieczeństwa Narodowego (NSA), Federalne Biuro Śledcze (FBI) oraz Agencja Bezpieczeństwa Cybernetycznego i Infrastruktury (CISA). W jakim kontekście przestrzegają przed tego rodzaju treściami?

Czytaj też

Deepfake zagrożeniem dla bezpieczeństwa

Jako główne zagrożenia wskazano: ryzyko dla marki/ reputacji organizacji; możliwość podszywania się pod liderów/ ważne osoby w firmie np. dyrektorów finansowych; uzyskanie dostępu do sieci/ wrażliwych informacji/ komunikacji; łatwiejsze przeprowadzanie złośliwych kampanii np. phishingowych. To z kolei od odbiorców będzie wymagało znacznie większych umiejętności rozpoznania tego typu działań socjotechnicznych niż obecnie.

W opublikowanym przez służby dokumencie wskazano na dobre praktyki, sposoby jak organizacje powinny identyfikować deepfake, bronić się przed nim i na nie reagować.

Zdaniem badaczki NSA specjalizującej się w kryminalistyce multimedialnej „organizacje i ich pracownicy muszą nauczyć się rozpoznawać techniki tworzenia deepfake«ów oraz mieć plan reagowania i minimalizowania wpływu, jeśli zostaną zaatakowani”.

Jak dodała, „narzędzia i techniki manipulowania materiałami multimedialnymi nie są nowe”, ale łatwość i skala, z jaką cyberprzestępcy je wykorzystują już tak. „Stwarza to nowy pakiet wyzwań dla bezpieczeństwa narodowego” – oceniła Candice Rockell Gerstner.

To właśnie kwestia czasu, skali i braku umiejętności technicznych z powodu coraz większej dostępności narzędzi do tworzenia deepfake sprawia, że masowa produkcja fałszywek staje się znacznie prostsza i tańsza. To z kolei sprawia, że należy spodziewać się, iż problem dezinformacji i oszustw zdecydowanie nie zniknie. Wręcz przeciwnie: do 2030 roku rynek generatywnej sztucznej inteligencji przekroczy kwotę 100 mld dolarów, rosnąc rocznie średnio o 35 proc..

Nadzieją na rosnącą skalę zjawiska – w kontrze do możliwości wykorzystania deepfake przez złośliwych aktorów – ma być fakt, że ulepszone zostaną także technologie identyfikacji i zwalczania tego zjawiska. Jak na razie jednak detektory treści zawodzą, często wskazując, że określona treść została wygenerowana przez AI, choć w rezultacie… stworzył ją człowiek.

Czytaj też

Jak się chronić?

W dokumencie czytamy, że organizacje już teraz mogą podjąć konkretne kroki, aby identyfikować, reagować i bronić się przed zagrożeniem deepfake. Już w latach 2021-2022 eksperci z amerykańskich agencji rządowych wskazali na najlepsze praktyki, jakie warto zastosować, by przygotować się na rosnące wyzwania wynikające ze skali i coraz doskonalszych form podróbek. Jakie praktyki zatem warto wdrożyć?

  • Wprowadzić możliwości i procedury weryfikacji tożsamości użytkowników w czasie rzeczywistym oraz sprawną komunikację. Dlaczego będzie to istotne? Biorąc pod uwagę szybki rozwój AI i coraz doskonalsze formy deepfake, złożona weryfikacja (poprzez np. wieloskładnikowe uwierzytelnienie – MFA) będzie szczególnie istotna np. w czasie transakcji finansowych, kiedy trzeba będzie udowodnić swoją tożsamość, by żadne dane osobowe/biometryczne/inne nie zostały podrobione.
  • Jako podstawowe zalecenia w procesie weryfikacji deepfake wskazano: wykonanie kopii nośników danych; sprawdzenie źródła (czy dane medium/ organizacja jest godna zaufania); zastosowanie funkcji „odwrotne wyszukiwanie obrazów”, jaką umożliwia np. TinEye; wyszukiwarka grafiki Google czy wyszukiwanie w Bing; przebadanie obrazu samodzielnie: przyjrzenie się, posłuchanie czy nie ma oczywistych oznak manipulacji; szukanie cech fizycznych, które nie są możliwe (np. zmienionych kształtów, rozmazanych części ciała itd.); czy w audio zostały dodane filtry, szumy itd.; sprawdzenie metadanych pliku. To tylko kilka ze wskazówek, jakie wybraliśmy dla początkujących czytelników.

Czytaj też

Dodatkowo amerykańskie służby odpowiedzialne za bezpieczeństwo radzą, aby firmy i organizacje wdrożyły szereg technologii do wykrywania nieautentycznych materiałów. Chodzi nie tylko o wspomnianą już weryfikację w czasie rzeczywistym (czy przy pomocy deepfake nie uda się podszyć pod daną osobę), ale też o technikę pasywnego wykrywania fejków oraz zabezpieczenia osób, których praca charakteryzuje się „wysokim priorytetem”.

Minimalizowanie zagrożenia deepfake to również kwestia udostępniania informacji w organizacjach, planów komunikacyjnych i ćwiczeń dotyczących reakcji na ewentualne próby wykorzystania deepfake do złamania zabezpieczeń firmy. Zatem niezbędne – także pod tym kątem – stanie się szkolenie zespołów.

Trening czyni mistrza?

Jak wskazano w dokumencie, sztucznie wygenerowane obrazy czy audio zagrażają zarówno marce i reputacji organizacji, jak i jej liderom czy osobom odpowiedzialnym za finanse. „Oprócz szkodzenia markom i finansom, media wygenerowane przy pomocy AI mogą również powodować niepokoje społeczne poprzez rozpowszechnianie fałszywych informacji na tematy polityczne, społeczne, wojskowe lub gospodarcze” - czytamy w publikacji.

Dlaczego stanowi to zagrożenie dla bezpieczeństwa narodowego? Obecnie wiele algorytmów opartych na głębokim uczeniu jest już dostępnych w open source. Zastosowanie tych technologii wymaga jedynie osobistego laptopa i minimalnych umiejętności technicznych, właśnie dlatego - zdaniem służb - stanowi to zagrożenie dla bezpieczeństwa narodowego.

Czytaj też

Służby zachęcają, by specjaliści cyberbezpieczeństwa uwzględnili zagrożenie deepfake w swoich szkoleniach np. wewnętrznych dla pracowników, by pokazać im, jakie potencjalne szkody mogą wyrządzić deepfake’i, których celem jest naruszenie reputacji firmy, nadszarpnięcie zaufania do wysoko postawionej w firmie osoby czy jak mogą zakończyć się próby wyłudzenia pieniędzy.

„Pracownicy powinni znać standardowe procedury reagowania na podejrzenia zmanipulowanych treści i rozumieć mechanizmy zgłaszania tego typu działalności w ich organizacji” – wskazano.

W Polsce tego typu praktyki to wciąż raczej pieśń przyszłości.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama