Reklama

Cyberbezpieczeństwo

Deepfake głosowy. Rośnie zagrożenie klonowaniem głosu

Klonowanie głosu to nowe zagrożenie na które nie jesteśmy gotowi
Klonowanie głosu to nowe zagrożenie na które nie jesteśmy gotowi
Autor. Oleg Ivanov/ Unsplash/ Domena publiczna

Eksperci cyberbezpieczeństwa ostrzegają przed rosnącym zagrożeniem klonowaniem głosu i traktowanie tego przez oszustów jako usługę (ang. voice cloning-as-a-service), którą sprzedają lub do której uzyskują dostęp - za niewielką opłatą. Celem takiego działania jest oszukanie ofiary i prawdopodobnie żądanie okupu.

Reklama

Sztuczna inteligencja oraz programy oparte na uczeniu maszynowym sprawiają, że rodzą się właściwie nieograniczone możliwości tworzenia deepfake’ów – zarówno w formie wideo, jak i audio, kiedy twórca fałszywego materiału stworzy własną wypowiedź z użyciem cudzego głosu lub/i wizerunku, podszywając się pod kogoś - np. bliską nam osobę. Tego typu zagrywki były już stosowane np. w USA w stanie Arizona, gdzie matka 15-letniej dziewczynki usłyszała w słuchawce zapłakany głos córki, a następnie żądanie okupu za jej rzekome „uwolnienie”. Szybko okazało się, że doszło do sklonowania głosu córki, a sama przebywa… bezpiecznie w swoim pokoju.

Reklama

Teraz eksperci cyberbezpieczeństwa z Recorded Future w swoim raporcie ostrzegają przed coraz większą popularnością przestępstwa opartego na klonowaniu głosu. Problem w tym, że rośnie zainteresowanie oszustów usługami Voice Cloning-as-a-Service (ang. klonowanie głosu jako usługa -VCaaS) w darkwebie – ostrzega Infosecurity Magazine.

Czytaj też

Deepfake będzie codziennością?

Do tej pory sporo mówiło się o dezinformacji, na którą społeczeństwo wciąż nie jest gotowe. Problem natomiast narasta, bo tym bardziej dotyczy to nowej odsłony fałszywych wiadomości – deepfake w formie wideo lub audio. Tymczasem przestępstwo klonowania głosu może nie tylko przyczyniać się do rozpowszechniania nieprawdziwych wiadomości, ale także omijać uwierzytelnienie dwuskładnikowe, zwiększać skuteczność socjotechniki w atakach typu Business Email Compromise (BEC) czy utrudnić walkę ze spoofingiem telefonicznym, który jest niczym innym, jak podszyciem się pod np. pracownika banku lub pod kontakt z naszej książki adresowej.

Reklama

Specjaliści zwracają uwagę, że w darkwebie można znaleźć oferty, które proponują skorzystanie z gotowych plarform klonowania głosu, co znacznie obniża trudność w przeprowadzeniu tego typu ataków. Niektóre są nawet darmowe lub dostęp do nich kosztuje niewiele – to kwoty rzędu 5 dolarów miesięcznie.

Czytaj też

Jak zaznacza serwis, jak na razie „ratunkiem” może być fakt, że technologia deepfake możliwa jest do stosowania tylko w przypadku jednorazowych próbek głosowych, które nie są wykorzystywane do rozmów w czasie rzeczywistym. Nie zmienia to jednak faktu, że zarówno oprogramowanie, jak i techniki sprawców ciągle się rozwijają. Przyszłość przyniesie zatem jeszcze większe wyzwania, na które obecnie nie jesteśmy gotowi.

Jedynym ratunkiem - jak na razie - może być edukacja na temat podstawowych zasad stosowania socjotechniki, phishingu, vishingu i technik dezinformacyjno-manipulacyjnych. To póki co jedyna metoda, by chronić się przed oszustami, których celem będzie oszukanie nas, wyłudzenie okupu, a w najlepszym wypadku – przygotowanie ponurego „żartu”.

Nie wiesz, jak rozpoznać deepfake? Pisaliśmy o tym na łamach CyberDefence24 w tym materiale, opierając się na poradach eksperta Demagoga.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama