Nadchodzi fala rosyjskich i chińskich deepfake’ów?

11 marca 2021, 10:05
carnival-3084572_960_720
Fot. MLARANDA/Pixabay

Zagrożenie deepfake’ami wraz z rozwojem technologii będzie dynamicznie rosło, co dotyczy przede wszystkim operacji prowadzonych przez Rosję i Chiny – ostrzega FBI. Spreparowane za pomocą sztucznej inteligencji lub uczenia maszynowego materiały w ciągu najbliższych 12-18 miesięcy będą wykorzystywane nie tylko do wzmacniania kampanii dezinformacyjnych, ale także spearphishingowych oraz działań bazujących na inżynierii społecznej.

Zdaniem FBI wrogie podmioty, w tym z Rosji i Chin, „prawie na pewno” wykorzystają głęboko spreparowane treści (tzw. deepfake) do prowadzenia operacji w cyberprzestrzeni w perspektywie 12-18 miesięcy. Mowa tu przede wszystkim o kampaniach spearphishingowych oraz działaniach bazujących na inżynierii społecznej. Tego typu materiały będą również niezmiennie elementem wzmacniania dezinformacji.

Co kryje się pod pojęciem deepfake? FBI tłumaczy, że jest to szerokie spektrum wygenerowanych lub zmanipulowanych treści cyfrowych, które obejmują obraz, wideo, dźwięk oraz tekst. Powstają one przy pomocy zaawansowanych technologii – sztucznej inteligencji lub uczenia maszynowego.

Złośliwi aktorzy mogą wykorzystywać głęboko spreparowane treści do tworzenia wysoce wiarygodnych wiadomości spearphishingowych lub podczas zaawansowanych ataków socjotechnicznych.

FBI

Spreparowane materiały są znanym sposobem na m.in. wzmacnianie dezinformacji. W alercie FBI wskazano, że tego typu metoda jest wykorzystywana przez Chiny i Rosję do prowadzenia operacji wpływu. Jako przykład podano kampanię Państwa Środka, którą specjaliści Graphika nazwali „Spamouflage Dragon”. Podczas działań zagraniczny aktor wygenerował za pomocą sztucznej inteligencji zdjęcia profilowe w mediach społecznościowych, aby w ten sposób nadać autentyczności fikcyjnym kontom i publikowanym z nich wpisom.

Oczywiście nie pominięto również operacji prowadzonych przez Rosję. Przytoczono przykład jednej z kampanii Kremla, podczas której rosyjska farma trolli (Internet Research Agency) wykorzystała sztucznie wygenerowane obrazy do wzmacniania narracji w social mediach i pogłębiania podziałów politycznych w Stanach Zjednoczonych w 2020 roku.

Obecnie osoby fizyczne częściej napotykają w sieci informacje, których kontekst został zmieniony przez złośliwych aktorów, niż głęboko spreparowane treści. Jednak ten trend prawdopodobnie ulegnie zmianie, gdy technologie będą się rozwijać.

 FBI

FBI ostrzegło, że zagrożenie związane z deepfake’ami z czasem będzie rosło i społeczeństwo musi być świadome ryzyka oraz potrafić sobie z nim radzić. W jaki sposób? Biuro zaleca przede wszystkim zachowanie szczególnej czujności i ostrożności podczas przeglądania treści z niesprawdzonych źródeł. Każde wypaczenie, zniekształcenie, problem z synchronizacją lub niespójności w obrazach lub filmach powinny wzbudzić podejrzenia. Jest to szczególnie ważne w przypadku tematów „szczególnie dzielących lub zapalnych”.

Amerykańskie służby radzą także, aby szukać wielu niezależnych źródeł informacji oraz kierować się ograniczonym zaufaniem na platformach mediów społecznościowych, bo to głównie tam występuje zagrożenie. „Nie zakładaj, że dana osoba w internecie rzeczywiście istnieje w oparciu o publikowane zdjęcia, wideo lub materiały głosowe na jej profilu” – wskazano w alercie.

FBI zadeklarowało również, że zbada zgromadzone materiały deepfake, które zostały przypisane „zagranicznym wrogim aktorom”.

image

 

KomentarzeLiczba komentarzy: 7
Rysy
piątek, 12 marca 2021, 15:51

Pierwsze co należy robić to regularnie informować o tego typu zagrożeniach i podawać przykłady.

Stary Grzyb
piątek, 12 marca 2021, 14:52

Czy można poprosić o jakiś konkretny przykład "deepfake'a" który oddziałał na cokolwiek? Nie żebym wątpił, że Rosja czy Chiny próbują, ale jakaś ilustracja by nie zaszkodziła.

Davien
piątek, 12 marca 2021, 14:10

Wystarczy wprowadzić ustawę delegalizującą posiadanie i rozpowszechnianie jakiejkolwiek wiedzy, oprogramowania do AI. Zwykłym ludziom to niepotrzebne a naukowcy mogą wyrobić na policji odpowiednie pozwolenie jeśli chcą prowadzić prace naukową. Jeśli za ściągnięcie programów wykorzystujących AI będzie groziła taka sama kara jak za ściąganie treści pedofilskich i będzie to skutecznie ścigane to nikt normalny nie będzie się tym interesował.

Niuniu
piątek, 12 marca 2021, 12:12

Już nadeszła i jest.

Fanklub Daviena i GB
piątek, 12 marca 2021, 11:30

A co? - amerykańskie i unijne deepfaki nie lubią konkurencji? :D

Tweets CyberDefence24