Cyberbezpieczeństwo
Deepfake głosowy. Rośnie zagrożenie klonowaniem głosu
Eksperci cyberbezpieczeństwa ostrzegają przed rosnącym zagrożeniem klonowaniem głosu i traktowanie tego przez oszustów jako usługę (ang. voice cloning-as-a-service), którą sprzedają lub do której uzyskują dostęp - za niewielką opłatą. Celem takiego działania jest oszukanie ofiary i prawdopodobnie żądanie okupu.
Sztuczna inteligencja oraz programy oparte na uczeniu maszynowym sprawiają, że rodzą się właściwie nieograniczone możliwości tworzenia deepfake’ów – zarówno w formie wideo, jak i audio, kiedy twórca fałszywego materiału stworzy własną wypowiedź z użyciem cudzego głosu lub/i wizerunku, podszywając się pod kogoś - np. bliską nam osobę. Tego typu zagrywki były już stosowane np. w USA w stanie Arizona, gdzie matka 15-letniej dziewczynki usłyszała w słuchawce zapłakany głos córki, a następnie żądanie okupu za jej rzekome „uwolnienie”. Szybko okazało się, że doszło do sklonowania głosu córki, a sama przebywa… bezpiecznie w swoim pokoju.
Teraz eksperci cyberbezpieczeństwa z Recorded Future w swoim raporcie ostrzegają przed coraz większą popularnością przestępstwa opartego na klonowaniu głosu. Problem w tym, że rośnie zainteresowanie oszustów usługami Voice Cloning-as-a-Service (ang. klonowanie głosu jako usługa -VCaaS) w darkwebie – ostrzega Infosecurity Magazine.
Czytaj też
Deepfake będzie codziennością?
Do tej pory sporo mówiło się o dezinformacji, na którą społeczeństwo wciąż nie jest gotowe. Problem natomiast narasta, bo tym bardziej dotyczy to nowej odsłony fałszywych wiadomości – deepfake w formie wideo lub audio. Tymczasem przestępstwo klonowania głosu może nie tylko przyczyniać się do rozpowszechniania nieprawdziwych wiadomości, ale także omijać uwierzytelnienie dwuskładnikowe, zwiększać skuteczność socjotechniki w atakach typu Business Email Compromise (BEC) czy utrudnić walkę ze spoofingiem telefonicznym, który jest niczym innym, jak podszyciem się pod np. pracownika banku lub pod kontakt z naszej książki adresowej.
Specjaliści zwracają uwagę, że w darkwebie można znaleźć oferty, które proponują skorzystanie z gotowych plarform klonowania głosu, co znacznie obniża trudność w przeprowadzeniu tego typu ataków. Niektóre są nawet darmowe lub dostęp do nich kosztuje niewiele – to kwoty rzędu 5 dolarów miesięcznie.
Czytaj też
Jak zaznacza serwis, jak na razie „ratunkiem” może być fakt, że technologia deepfake możliwa jest do stosowania tylko w przypadku jednorazowych próbek głosowych, które nie są wykorzystywane do rozmów w czasie rzeczywistym. Nie zmienia to jednak faktu, że zarówno oprogramowanie, jak i techniki sprawców ciągle się rozwijają. Przyszłość przyniesie zatem jeszcze większe wyzwania, na które obecnie nie jesteśmy gotowi.
Jedynym ratunkiem - jak na razie - może być edukacja na temat podstawowych zasad stosowania socjotechniki, phishingu, vishingu i technik dezinformacyjno-manipulacyjnych. To póki co jedyna metoda, by chronić się przed oszustami, których celem będzie oszukanie nas, wyłudzenie okupu, a w najlepszym wypadku – przygotowanie ponurego „żartu”.
Nie wiesz, jak rozpoznać deepfake? Pisaliśmy o tym na łamach CyberDefence24 w tym materiale, opierając się na poradach eksperta Demagoga.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].