Technologie
FBI ostrzega: cyberprzestępcy już wykorzystują AI
FBI ostrzega, że cyberprzestępcy już wykorzystują generatywną sztuczną inteligencję, aby ułatwić sobie przygotowanie oszustw finansowych.
Sztuczna inteligencja od ponad dwóch lat odmieniana jest przez wszystkie przypadki. Niewątpliwie dzieje się tak z powodu uposzechnienia się narzędzi generatywnej AI, która może być wykorzystywana zarówno do dobrych, jak i złych celów.
Niestety cyberprzestępcy także czerpią z niej korzyści, ułatwiając sobie oszukiwanie użytkowników na masową skalę. FBI wydało ostrzeżenie, w którym stwierdziło, że źli aktorzy używają AI do popełniania oszustw na większą skalę, co zwiększa wiarygodność ich planów.
Generatywna sztuczna inteligencja skraca czas i wysiłek, jaki przestępcy muszą poświęcić, aby oszukać swoje cele. Generatywna sztuczna inteligencja wykorzystuje to, czego nauczyła się z poleceń wprowadzonych przez użytkownika i syntetyzuje nowe treści na podstawie tych informacji. Narzędzia te pomagają w tworzeniu komunikatów i mogą korygować błędy ludzkie, które mogłyby służyć jako "znaki ostrzegawcze", wskazujące na oszustwo.
FBI
Amerykańska agencja rządowa przypomina także, że treści syntetyczne mogą ułatwić przestępstwa takie jak oszustwa czy wymuszenia. Podaje przykłady: tekstu wygenerowanego przez AI; obrazów i dźwięków.
Tekst generowany przez AI
Jeśli chodzi o komunikaty tekstowe, FBI wskazuje, że oszuści wykorzystują je do zwiększenia wiarygodności i socjotechniki, spear-phishingu, oszustw finansowych (scamu o charakterze matrymonialnym czy fałszywych inwestycji). Dodatkowo przy pomocy AI generują fikcyjne profile w mediach społecznościowych, by nakłaniać ofiary do przekazania im pieniędzy.
Sztuczna inteligencja przede wszystkim ułatwia i przyspiesza tworzenie fałszywych wiadomości, wysyłanych później do ofiar.
„Przestępcy wykorzystują narzędzia generatywnej sztucznej inteligencji, aby pomóc w tłumaczeniach językowych w celu ograniczenia błędów gramatycznych lub ortograficznych dla zagranicznych podmiotów przestępczych, atakujących ofiary w USA” - wskazano. Analogicznie dotyczy to także innych państw, w tym Polski.
Dodatkowo AI służy oszustwom do generowania treści na fałszywych stronach internetowych, które mają potem skłonić użytkowników do inwestycji np. w kryptowaluty.
Czytaj też
Obrazy generowane przez AI
Kolejnym zagrożeniem wskazywanym przez FBI, które wielokrotnie opisywaliśmy na łamach CyberDefence24.pl są deepfake. Chodzi o tworzenie zarówno zdjęć profilowych na fikcyjne konta w social mediach, dokumentów tożsamości czy obrazów służących do oszustw (np. atrakcyjnych kobiet czy mężczyzn, którzy namawiają swoje ofiary do przekazania pieniędzy).
Dodatkowo często generowane są zdjęcia czy wideo rzekomo przedstawiające celebrytów lub osoby publiczne (m.in. dziennikarzy czy polityków), którzy promują produkty inwestycyjne, będące w rzeczywistości scamem.
Co więcej, w fikcyjnych zbiórkach produkowane są zdjęcia z wojen, klęsk żywiołowych czy innych tragicznych sytuacji, które mają skłonić darczyńców do wpłaty pieniędzy.
Innym zagrożeniem są deepfake o charakterze pornograficznym, tworzone z wizerunkiem ofiary, które później służą do wymuszenia okupu w zamian za niepublikowanie tego typu materiałów.
Czytaj też
Klonowanie głosu
Kolejnym groźnym zjawiskiem jest klonowanie głosu osób publicznych czy też bliskich w celu podszycia się i np. wyłudzenia pieniędzy. Takie nagrania audio zawierają głos kogoś z rodziny i zawierają „prośbę o pomoc” w „sytuacji kryzysowej”, bądź też żądanie okupu.
FBI radzi, by ustalić z rodziną „sekretne słowo” (czy też zdanie), które pozwoli na odróżnienie, że mamy do czynienia z autentyczną osobą przy próbie oszustwa. Dodatkowo warto pamiętać, by nie udostępniać poufnych informacji osobom, które poznało się online, bądź tylko telefonicznie. Nie wysyłaj pieniędzy, kryptowalut (czy innych środków) komuś, kogo nie znasz.
Jeśli to możliwe, ustaw swoje konta w mediach społecznościowych na prywatne i ogranicz liczbę obserwujących tylko do osób, które znasz, co zmniejszy ryzyko wykorzystania twoich zdjęć/ filmów przez narzędzia AI i do socjotechniki.
Z kolei kiedy dzwoni do ciebie nieznany numer z banku, nie podawaj żadnych danych, nie przelewaj pieniędzy na „inne, zapasowe konto”, a jeśli potrzebujesz coś załatwić, sam zadzwoń na infolinię.
Uważnie obserwuj czy masz do czynienia z autentycznym wideo lub zdjęciem. Jak to zrobić pisaliśmy w tym materiale, a tutaj znajdziesz porady dotyczące ryzyka klonowania głosu.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].