Reklama

Technologie

FBI ostrzega: cyberprzestępcy już wykorzystują AI

FBI ostrzega, że cyberprzestępcy już wykorzystują generatywną sztuczną inteligencję, aby ułatwić sobie przygotowanie oszustw finansowych.
FBI ostrzega, że cyberprzestępcy już wykorzystują generatywną sztuczną inteligencję, aby ułatwić sobie przygotowanie oszustw finansowych.
Autor. Shutterstock

FBI ostrzega, że cyberprzestępcy już wykorzystują generatywną sztuczną inteligencję, aby ułatwić sobie przygotowanie oszustw finansowych.

Sztuczna inteligencja od ponad dwóch lat odmieniana jest przez wszystkie przypadki. Niewątpliwie dzieje się tak z powodu uposzechnienia się narzędzi generatywnej AI, która może być wykorzystywana zarówno do dobrych, jak i złych celów.

Niestety cyberprzestępcy także czerpią z niej korzyści, ułatwiając sobie oszukiwanie użytkowników na masową skalę. FBI wydało ostrzeżenie, w którym stwierdziło, że źli aktorzy używają AI do popełniania oszustw na większą skalę, co zwiększa wiarygodność ich planów.

Generatywna sztuczna inteligencja skraca czas i wysiłek, jaki przestępcy muszą poświęcić, aby oszukać swoje cele. Generatywna sztuczna inteligencja wykorzystuje to, czego nauczyła się z poleceń wprowadzonych przez użytkownika i syntetyzuje nowe treści na podstawie tych informacji. Narzędzia te pomagają w tworzeniu komunikatów i mogą korygować błędy ludzkie, które mogłyby służyć jako "znaki ostrzegawcze", wskazujące na oszustwo.
FBI

Amerykańska agencja rządowa przypomina także, że treści syntetyczne mogą ułatwić przestępstwa takie jak oszustwa czy wymuszenia. Podaje przykłady: tekstu wygenerowanego przez AI; obrazów i dźwięków.

Reklama

Tekst generowany przez AI

Jeśli chodzi o komunikaty tekstowe, FBI wskazuje, że oszuści wykorzystują je do zwiększenia wiarygodności i socjotechniki, spear-phishingu, oszustw finansowych (scamu o charakterze matrymonialnym czy fałszywych inwestycji). Dodatkowo przy pomocy AI generują fikcyjne profile w mediach społecznościowych, by nakłaniać ofiary do przekazania im pieniędzy.

Sztuczna inteligencja przede wszystkim ułatwia i przyspiesza tworzenie fałszywych wiadomości, wysyłanych później do ofiar.

„Przestępcy wykorzystują narzędzia generatywnej sztucznej inteligencji, aby pomóc w tłumaczeniach językowych w celu ograniczenia błędów gramatycznych lub ortograficznych dla zagranicznych podmiotów przestępczych, atakujących ofiary w USA” - wskazano. Analogicznie dotyczy to także innych państw, w tym Polski.

Dodatkowo AI służy oszustwom do generowania treści na fałszywych stronach internetowych, które mają potem skłonić użytkowników do inwestycji np. w kryptowaluty.

Czytaj też

Reklama

Obrazy generowane przez AI

Kolejnym zagrożeniem wskazywanym przez FBI, które wielokrotnie opisywaliśmy na łamach CyberDefence24.pl są deepfake. Chodzi o tworzenie zarówno zdjęć profilowych na fikcyjne konta w social mediach, dokumentów tożsamości czy obrazów służących do oszustw (np. atrakcyjnych kobiet czy mężczyzn, którzy namawiają swoje ofiary do przekazania pieniędzy).

Dodatkowo często generowane są zdjęcia czy wideo rzekomo przedstawiające celebrytów lub osoby publiczne (m.in. dziennikarzy czy polityków), którzy promują produkty inwestycyjne, będące w rzeczywistości scamem.

Co więcej, w fikcyjnych zbiórkach produkowane są zdjęcia z wojen, klęsk żywiołowych czy innych tragicznych sytuacji, które mają skłonić darczyńców do wpłaty pieniędzy.

Innym zagrożeniem są deepfake o charakterze pornograficznym, tworzone z wizerunkiem ofiary, które później służą do wymuszenia okupu w zamian za niepublikowanie tego typu materiałów.

Czytaj też

Reklama

Klonowanie głosu

Kolejnym groźnym zjawiskiem jest klonowanie głosu osób publicznych czy też bliskich w celu podszycia się i np. wyłudzenia pieniędzy. Takie nagrania audio zawierają głos kogoś z rodziny i zawierają „prośbę o pomoc” w „sytuacji kryzysowej”, bądź też żądanie okupu.

FBI radzi, by ustalić z rodziną „sekretne słowo” (czy też zdanie), które pozwoli na odróżnienie, że mamy do czynienia z autentyczną osobą przy próbie oszustwa. Dodatkowo warto pamiętać, by nie udostępniać poufnych informacji osobom, które poznało się online, bądź tylko telefonicznie. Nie wysyłaj pieniędzy, kryptowalut (czy innych środków) komuś, kogo nie znasz.

Jeśli to możliwe, ustaw swoje konta w mediach społecznościowych na prywatne i ogranicz liczbę obserwujących tylko do osób, które znasz, co zmniejszy ryzyko wykorzystania twoich zdjęć/ filmów przez narzędzia AI i do socjotechniki.

Z kolei kiedy dzwoni do ciebie nieznany numer z banku, nie podawaj żadnych danych, nie przelewaj pieniędzy na „inne, zapasowe konto”, a jeśli potrzebujesz coś załatwić, sam zadzwoń na infolinię.

Uważnie obserwuj czy masz do czynienia z autentycznym wideo lub zdjęciem. Jak to zrobić pisaliśmy w tym materiale, a tutaj znajdziesz porady dotyczące ryzyka klonowania głosu.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama