Cyberbezpieczeństwo
Klonowanie głosu. Fałszywe próbki mogą oszukać systemy uwierzytelniania
Klonowanie głosu polega na użyciu sztucznej inteligencji (AI) do kreowania mowy danej osoby, poprzez tworzenie „kopii” jej głosu. Systemy kreują coraz doskonalsze deepfake głosowe, co stwarza dodatkowe zagrożenie. Jak pokazały ostatnie badania, udało się przygotować próbki, które… oszukały systemy uwierzytelniania. Co to oznacza?
O klonowaniu głosu i tworzeniu łudząco podobnych do oryginału próbek pisaliśmy na łamach CyberDefence24.pl w tym materiale . Ekspertka Demagoga wskazywała na fakt, że już teraz bardzo łatwo wyszukać darmowe lub płatne narzędzia, które umożliwiają stworzenie deepfake’a głosowego, a jedyne czego potrzebujemy to niewielki fragment głosu danej osoby, pod którą chcielibyśmy się podszyć. Wystarczy kilka sekund materiału, by stworzyć własną wersję.
Przerażające, tym bardziej, jeśli mówimy nie o „niewinnym żarcie”, ale o celowej manipulacji cudzym głosem i użyciu go np. w sprawach politycznych, biznesowych czy też osobistych.
Próbka oszukuje systemy uwierzytelnienia
Problem jest tym bardziej niepokojący, że – jak podaje serwis The Register – badacze wykryli, iż istnieje sposób, by ominąć systemy uwierzytelnienia, do tej pory zapewniające wysoki poziom bezpieczeństwa.
Twórcy oprogramowania do uwierzytelniania głosowego zbudowali dodatkową warstwę zabezpieczeń w celu wykrycia, czy próbka audio wydaje się być wygenerowana przez człowieka, czy przez maszynę. Taka ochrona stosowana jest m.in. przez banki czy np. call center.
Redakcja opisuje przykład pary informatyków z Uniwersytetu w Waterloo (Kanada), którzy pracowali nad techniką oszukiwania takich systemów. Jak wskazali w swoim artykule (z 44th IEEE Symposium on Security and Privacy) złośliwe próbki głosu były naprawdę skuteczne i były w stanie ominąć zabezpieczenia. Do tej pory uwierzytelnienie głosowe było w stanie „wychwycić” cechy szczególne danej próbki, należącej do każdej osoby.
Naukowcy wyszkolili swój system na próbkach wypowiedzi 107 mówców, aby zbadać, dlaczego brzmi on „ludzko”. Osiągnęli sukces w 72 proc. prób oszukania systemu, a przeciwko niektórym – słabszym systemom – 99 proc. skuteczność.
Wyniki te są co najmniej niepokojące, biorąc pod uwagę wciąż niski wskaźnik świadomości społeczeństwa w kwestii tego typu zagrożeń. Naukowcy ostrzegli firmy opracowujące oprogramowanie do uwierzytelniania głosowego, aby intensywnie pracowały nad własnymi rozwiązaniami. „Odkrycia podkreślają poważne pułapki systemów uwierzytelniania głosowego i potrzebę bardziej niezawodnych mechanizmów” – stwierdzili, cytowani przez serwis.
Czym są deepfake?
Przypomnijmy, że deepfake (z ang. deep learning - głębokie uczenie maszynowe i fake – fałsz) opiera się na nowoczesnym sposobie obróbki nagrań w oparciu o sztuczną inteligencję. AI może sprawić, że sfabrykowany materiał powstanie na bazie zdjęć, wideo i / lub dźwięku, a za pomocą programu można podszyć się pod właściwie dowolną postać – podłożyć jej głos i w ten sposób celowo zmanipulować materiał.
Czytaj też
Jak rozpoznać, że możemy mieć do czynienia z nieautentycznym, zmodyfikowanym głosem? Jak wskazała Justyna Stańska ze Stowarzyszenia Demagog w tekście na łamach CyberDefence24.pl warto wziąć pod uwagę niepoprawną intonację; brak „ludzkich” błędów w mowie; brak lub nienaturalny oddech czy też kontrowersyjność wypowiedzi.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].