Reklama

Technologie

Sztuczna inteligencja już teraz może sklonować nasz głos. Mamy się czego obawiać?

megafon
Autor. Sora Shimazaki/pexels.com

Czy wiesz, że Twój głos może być sklonowany w mgnieniu oka? Sztuczna inteligencja już teraz potrafi naśladować nasze głosy z niepokojącą precyzją, co zaczyna rodzić pytania o poważne zagrożenia związane z prywatnością i cyberbezpieczeństwem. Jak będzie wyglądała przyszłość tego typu technologii i… czy mamy się czego obawiać?

Reklama

W ostatnich latach technologie oparte na sztucznej inteligencji zaczęły odgrywać kluczową rolę w klonowaniu głosu. Współczesne metody wykorzystują uczenie maszynowe, aby analizować i naśladować ludzki głos z dużą precyzją. Głównym narzędziem wykorzystywanym w tym celu są sieci neuronowe, takie jak GAN (Generative Adversarial Networks) i LSTM (Long Short-Term Memory).

Reklama

Czytaj też

Reklama

Jak to dokładnie działa?

Uczenie maszynowe opiera się na analizie i przetwarzaniu dużych zbiorów danych - co jest absolutną koniecznością w przypadku skutecznego klonowania ludzkiego głosu. Aby skutecznie naśladować głos danej osoby, algorytmy muszą być w stanie przeanalizować oraz „nauczyć się” specyficznych cech powiązanych z danymi biometrycznymi. Inżynierowie wykorzystują do tego celu najczęściej uprzednio przygotowane nagrania głosowe, które stanowią bazę do trenowania wspomnianych modeli.

Na rynku już teraz istnieje wiele narzędzi służących do syntezowania głosu. Wśród nich warto wymienić m.in Lyrebird, opracowane przez kanadyjską firmę. Technologia ta pozwala na klonowanie głosu na podstawie nagrań. Google's Tacotron 2 to kolejny system oparty na sieciach neuronowych, który generuje realistyczne głosy syntetyczne, pozwalając na klonowanie głosu z zachowaniem jego cech charakterystycznych. Chińska firma Baidu również opracowała technologię Deep Voice, która służy do generowania mowy na podstawie krótkiej próbki dźwięku. MIcrosoft także nie chce pozostawać w tyle. Kilka miesięcy temu amerykańska firma pokazała Vall-E - model pozwalający na sklonowanie głosu na podstawie próbki o długości zaledwie trzech sekund.

Współczesne metody klonowania głosu osiągają imponującą szybkość i precyzję. Dzięki postępom w dziedzinie uczenia maszynowego, algorytmy są w stanie generować wiarygodne rezultaty bazując już na kilkunastosekundowych nagraniach. Poprawa jakości syntezowanego głosu pozwala na osiągnięcie coraz bardziej realistycznych efektów, jednakże wciąż istnieją pewne ograniczenia. Główne z nich to brak naturalności w intonacji czy przekazywaniu emocji. Patrząc jednak na postępy w klonowaniu głosu, osiągnięcie lepszych wyników pozostaje tylko kwestią czasu.

Jednym z ciekawych przykładów wykorzystania technologii klonowania głosu może być postać Val Kilmera - aktor zachorował na raka gardła, który odebrał mu głos. Na podstawie próbek inżynierowie z firmy Sonatic byli w stanie sklonować jego głos i w pewien sposób „przywrócić” go do spowrotem.

YouTube cover video

Potencjalne zagrożenia związane z klonowaniem głosu

Klonowanie głosu za pomocą sztucznej inteligencji niesie ze sobą wiele potencjalnych zagrożeń. Wykorzystanie sklonowanego głosu do oszustw jest jednym z nich. Przestępcy mogą podszywać się pod osoby autorytatywne, takie jak dyrektorzy firm czy pracownicy instytucji finansowych, aby wyłudzić informacje poufne od ich ofiar. Takie oszustwa mogą prowadzić do kradzieży tożsamości, strat finansowych oraz innych niekorzystnych konsekwencji dla osób poszkodowanych.

Fałszywe wiadomości i komunikaty, generowane za pomocą sklonowanego głosu, mogą również wpłynąć na opinię publiczną i wywołać nieuzasadnione obawy lub panikę. W wyniku tego może dojść do rozprzestrzeniania się dezinformacji, wpływając na podejmowanie decyzji przez społeczeństwo, a także destabilizację polityczną. W październiku 2019 r., stan Kalifornia wprowadził ustawę AB-730, która zabrania dystrybucji deepfake'ów i podszywania się pod inne osoby przed wyborami, aby chronić polityków przed fake newsami i manipulacją.

Manipulowanie ofiarami poprzez podrobione nagrania głosowe stanowi kolejne zagrożenie. Przestępcy mogą wykorzystywać deepfake'i głosowe do szantażowania, wprowadzenia w błąd czy nawet zmuszenia ofiar do podjęcia niekorzystnych działań.

Walka z oszustwami głosowymi i deepfake'ami staje się więc coraz ważniejsza. W tle inżynierowie opracowują narzędzia oparte na sztucznej inteligencji, które potrafią wykrywać sklonowane i fałszywe nagrania głosowe. W ten sposób identyfikacja oraz wyłapywanie podejrzanych nagrań ma stać się nie tylko prostsze, ale również szybsze.

Regulacje prawne również odgrywają istotną rolę w walce z deepfake'ami. Ustalanie odpowiednich przepisów mających na celu penalizację twórców i dystrybutorów tego rodzaju materiałów może pozwolić na utrzymanie odpowiedniej kontroli nad technologią klonowania głosu. Wdrażanie takich regulacji zwiększy świadomość społeczeństwa na temat zagrożeń płynących z wykorzystania deepfake'ów i pozwoli na ochronę prywatności oraz bezpieczeństwa osób narażonych na tego typu ataki.

Według serwisu Statista, w 2021 r., rynek usług związanych z bezpieczeństwem cyfrowym osiągnął wartość 123,8 mld dolarów, co pokazuje rosnące znaczenie inwestycji w ochronę danych i prywatności w związku z rozwojem technologii, takich jak klonowanie głosu

Czytaj też

Czy jest czego się obawiać?

Wykorzystanie sklonowanego głosu bez zgody właściciela może przybrać różne formy, takie jak podszywanie się pod kogoś w rozmowach telefonicznych czy komunikatorach głosowych. W rezultacie, ofiary takiego działania mogą być narażone na szereg nieprzyjemnych konsekwencji, takich jak utrata zaufania w relacjach osobistych czy zawodowych. Cyberprzestępczość, taka jak szantaż czy stalking, może również być ułatwiona przez wykorzystanie sklonowanego głosu. Przestępcy mogą manipulować ofiarami, tworząc kompromitujące lub wrażliwe nagrania z fałszywym głosem, a następnie wykorzystywać je do celów przestępczych.

Według danych z raportu Deeptrace Labs, w ciągu trzech lat, pomiędzy 2018 a 2021 rokiem, liczba detekcji deepfake'ów wzrosła piętnastokrotnie, co tylko pokazuje, jak szybko rozwija się ta technologia i jej bezpośrednie wykorzystanie..

W odpowiedzi na rosnące zagrożenia związane z naruszeniem prywatności, istnieje potrzeba poszerzenia zakresu ochrony prawnej dotyczącej prywatności głosu. Wprowadzenie odpowiedzialności karnych i cywilnych za nieautoryzowane wykorzystanie sklonowanego głosu może stanowić środek odstraszający dla przestępców oraz zapewnić ofiarom odpowiednią ochronę. Ponadto, zwiększenie wymogów w zakresie uzyskiwania zgody na przetwarzanie danych głosowych pozwoli na kontrolowanie, kto i w jakim celu korzysta z technologii klonowania głosu.

Czy mamy się więc czego obawiać? Na ten moment jeszcze nie choć na pewno trzeba być świadomym do czego może posłużyć technologia klonowania głosu.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama