Cyberbezpieczeństwo
Deepfake wart 25 mln dolarów. Oszustwa zbierają żniwa
Jeden z pracowników międzynarodowej firmy uwierzył w deepfake i wypłacił oszustom 25 mln dolarów. Sprawcy wykorzystali technologię, by stworzyć… fikcyjne osoby, biorące udział w wideokonferencji. Skala tego typu przestępstw może drastycznie wzrosnąć.
Deepfake (audio/ zdjęcie/ wideo) to rosnące zagrożenie, o którym pisaliśmy wielokrotnie na naszych łamach. Fałszywe materiały, dzięki stale rozwijającej się technologii sztucznej inteligencji, stają się coraz doskonalsze, a przez to olbrzymim wyzwaniem nie tylko dla firm, ale też każdego z nas – użytkowników technologii i sieci, narażonych każdego dnia na możliwe fałszywki.
Przestępcy już odkryli, że mogą wykorzystać deepfake’i do różnego rodzaju oszustw finansowych. W ubiegłym tygodniu opisywaliśmy m.in. przykład scamu z wykorzystaniem wizerunku Agaty Młynarskiej i próbę podszywania się pod serwis Gazeta.pl. Wszystko po to, aby wyłudzić dane i pieniądze.
Czytaj też
25 mln dolarów za deepfake
Teraz – jak podaje CNN – doszło do kolejnego, gigantycznego oszustwa na podstawie wygenerowanego deepfake. Z relacji policji w Hongkongu wynika, że pracownik międzynarodowej firmy (jej nazwy nie ujawniono) myślał, że wziął udział w wideo rozmowie z zarządem, a w rzeczywistości… był to deepfake.
„(W) wieloosobowej wideokonferencji okazało się, że wszyscy, których widział, byli fałszywi” – cytuje przedstawiciela tamtejszej policji serwis CNN.
Pracownik miał „nabrać podejrzeń” po tym, jak dostał wiadomość, która pochodziła rzekomo od dyrektora finansowego firmy z siedzibą w Wielkiej Brytanii. Podejrzewał, że to wiadomość phishingowa, ponieważ informowała o „sekretnej transakcji”, jednak jego wątpliwości rozwiała ostatecznie fałszywa rozmowa wideo.
Uwierzył, że wszyscy przedstawiciele firmy, z którymi rozmawiał są prawdziwi i zgodził się wypłacić 25 mln dolarów (tj. 200 mln dolarów hongkońskich) na wskazany przez oszustów cel.
Hongkońska policja podała, że aresztowała już sześć osób w związku z oszustwami typu deepfake, a zanotowała co najmniej 20 przypadków, kiedy AI została wykorzystana, by oszukać program do rozpoznania twarzy, bazujący na danych zeskanowanych z dowodów osobistych.
Realne zagrożenie dla demokracji
Deepfake to nie tylko ryzyko oszustwa w postaci wyłudzenia danych czy pieniędzy, ale niestety także zagrożenie dla demokracji. Świadczy o tym choćby ostatni przypadek z USA, kiedy ujawniono nagranie, w którym fałszywy głos Joe Bidena wzywa Demokratów, by nie głosowali w prawyborach w Stanach Zjednoczonych.
Serwis NBC News udostępnił nagranie ze spreparowanym głosem Joe Bidena (można je odsłuchać tutaj), w którym ktoś podszył się pod prezydenta USA i jego „głosem” nawoływał, by opuścić prawybory, odbywające się 23 stycznia w stanie New Hampshire .
Czytaj też
Z drugiej strony fałszywe materiały mogą służyć jako narzędzie propagandy w czasie wojny, co pokazał przykład z fejkowym wideo prezentującym rzekomo prezydenta Ukrainy, wzywającym żołnierzy do poddania się. W rzeczywistości za oszustwem stali Rosjanie, którzy chcieli zyskać przewagę.
Jak się chronić przed deepfake?
O tym, jak można ustrzeć się przed zagrożeniem, jakim są deepfake przeczytacie w artykule Stowarzyszenia Demagog - partnera naszego serwisu.
Natomiast wskazówki, jak rozpoznać deepfake znajdziecie tutaj.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany