Reklama

Cyberbezpieczeństwo

Czy jesteśmy odporni na deepfake? Przed nami dużo pracy

Autor. Jason Rosewell/Unsplash

Najnowsze wyniki badań dotyczących deep fake«ów pokazują, że dla części osób odróżnienie prawdziwego ludzkiego głosu od tego wygenerowanego przez uczenie maszynowe jest sporym wyzwaniem. Postęp technologii może jeszcze utrudnić sytuację.

Reklama

University College London (UCL) przeprowadziło badania na ponad 500 osobach. Badanie polegało na tym, że naukowcy wykorzystali algorytm zamiany tekstu na mowę (TTS), który został przeszkolony na dwóch publicznie dostępnych zestawach danych w celu wygenerowania fałszywej próbki mowy.

Reklama

Próbka (w języku angielskim i mandaryńskim) została wysłuchana przez badanych, którzy mieli stwierdzić czy usłyszany przez nich głos należy do realnego człowieka, czy też została wygenerowana sztucznie. Okazało się, że 73 proc. badanych poprawnie rozróżniło ludzki głos, ale 27 proc. z nich miało problem z wykryciem mowy wygenerowanej przez maszynę.

Czytaj też

Problem będzie narastał

Badania opublikowane przez czasopismo naukowe PLOS One to pierwsze tego typu badanie, które ocenia zdolności człowieka do wykrywania sztucznie wygenerowanej mowy w języku innym niż angielski. Zastosowanie wspomnianego w tekście języka mandaryńskiego miało na celu sprawdzenie czy język może wpływać na skuteczność wykrywania deep fake'a.

Reklama

Co ciekawe i warte zauważenia, osoby, które przed badaniem przeszły szkolenie, które miało im pomóc w rozróżnianiu dźwięków zaledwie w minimalnym stopniu polepszyły swoje zdolności. Zwróciła na to uwagę Kimberly Mai - współtworząca badanie.

„Nasze odkrycia potwierdzają, że ludzie nie są w stanie wiarygodnie wykryć fałszywej mowy, niezależnie od tego, czy zostali przeszkoleni, aby pomóc im wykryć sztuczne treści" – powiedziała, cytowana przez InfoSecurity Magazine .

Dodała do tego, że badania nie zostały przeprowadzone na najnowszych narzędziach generujących sztucznie głos, a to oznacza, że postęp techniczny – który niewątpliwie nas czeka - sprawi, że problem będzie narastał.

Czytaj też

Czym jest deepfake?

O problemie technologii deepfake na łamach CyberDefence24 pisaliśmy niejednokrotnie. Swoją nazwę wzięło ono od ang. deep learning – głębokie uczenie maszynowe i fake – fałsz. Oprócz definiowania zjawiska, pisaliśmy też o tym, jak rozpoznać deepfake. Po więcej informacji na ten temat odsyłamy do naszego tekstu.

/MG

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama