Prywatność

#CyberMagazyn: Rozpoznawanie głosu. Nowy horyzont zagrożeń dla prywatności

Fot. Kelly Sikkema / Unsplash

W ostatnich latach coraz popularniejsze stają się usługi oparte o interfejsy głosowe. Pozornie zaprojektowane wyłącznie dla wygody użytkowników gadżety na masową skalę gromadzą dane, w tym – próbki głosu. Dlaczego prywatność naszego głosu jest tak istotna?

Według szacunków analityków, wartość rynku biometrii głosowej, rozpoznawania głosu i analizy mowy w ciągu kolejnych kilku lat osiągnie pułap 20 mld dolarów.

Usługi oparte o rozpoznawanie głosu to kolejna warstwa personalizacji produktów i doświadczeń, którą użytkownikom oferuje świat nowych technologii. Prym wiedzie tu m.in. Google, które personalizację opartą o głos chce wdrażać w swoim systemie dla urządzeń mobilnych Android.

Planowane w przyszłości rozwiązania personalizacji opartej o rozpoznawanie mowy wykryto również w kodzie aplikacji Google Assistant. Jak pisze serwis 9to5Google, zdekompilowane pliki APK w aplikacji zawierają możliwość przechowywania nagrań głosowych na urządzeniu, w celu ulepszania działania usługi cyfrowego asystenta w zakresie rozpoznawania mowy.

Serwis 9to5Google wskazuje przy tym, że urządzenia dla inteligentnego gospodarstwa domowego takie jak np. nowsze modele NestHub już teraz korzystają z uczenia maszynowego do przetwarzania często używanych do obsługi interfejsów głosowych zapytań – to samo podejście może wkrótce zostać wdrożone do systemu Android, dostępnego dla telefonów komórkowych i tabletów oraz telewizorów.

Jakie informacje na nasz temat ujawnia głos?

Na przykład to, czy mamy depresję – jak chce tego startup Kintsugi, który powstał po to, by ułatwiać identyfikację osób potrzebujących terapii. Oznaki, że cierpimy na depresję mogą bowiem być łatwo uchwytne w naszym głosie – twierdzą założycielki firmy.

Według nich, jeśli cierpimy na tę chorobę, nasz głos staje się "płaski". Potwierdzają to prowadzone od wielu lat badania kliniczne z zakresu psychiatrii, które wskazują, że zjawisko płaskiego, bezbarwnego głosu u osób z depresją występuje niezależnie od wieku, języka i kultury, z której pochodzą i stanowi raczej uniwersalny sposób reagowania ludzkiego organizmu na cierpienie wywołane chorobą.

Jak zachodzi na poziomie fizjologicznym? Przez spowolnienie działania funkcji psychomotorycznych, w tym – procesów myślowych i ruchów mięśni.

Algorytm Kintsugi - był według jego twórczyń - trenowany na dziesiątkach tysięcy głosów osób z depresją, a jego głównym zadaniem jest jak najszybsza sygnalizacja lekarzowi psychiatrii lub terapeucie, że danym pacjentem należy zająć się szczególnie szybko.

Skąd wzięto nagrania?

Z aplikacji o tej samej nazwie – Kintsugi, która kosztowała 19,90 dolarów i oferowała swoim użytkownikom możliwość prowadzenia dziennika w formie notatek głosowych. To właśnie stamtąd pochodziły wszystkie próbki głosu, które wykorzystano do trenowania algorytmu – wcześniej jednak do ich pozyskania wybrano nagrania od osób, które przeżywają zły czas w swoim życiu, oddzielając je od tych, które wykorzystywały aplikację np. do nagrywania wspomnień swoich szczęśliwych momentów.

Kintsugi poinformowało o fakcie gromadzenia próbek głosu do celów badawczych i analitycznych – pytanie brzmi jednak, jak wielu użytkowników zapoznało się z regulaminem korzystania z tej aplikacji i zdawało sobie sprawę z tego, jak bardzo niewiele prywatności mają podczas głosowych „zwierzeń" w ramach aktywności w aplikacji.

Głos mówi o nas więcej, niż słowa

To, czy cierpimy na depresję, to nie jedyna rzecz, jaką mogą zdradzić tembr, ton i barwa naszego głosu.

Analiza maszynowa potrafi wydobyć z głosu znacznie więcej, niż nawet najbardziej wprawne ludzkie ucho – np. to, ile osoba mówiąca ma lat, jakiej jest płci, z jakiego kręgu kulturowego się wywodzi, a także jaki jest jej status społeczno-ekonomiczny, stan zdrowia i wiele więcej. W niektórych badaniach naukowcy byli zdolni nawet odtworzyć na podstawie głosu to, jak wygląda twarz osoby mówiącej.

Głos coraz częściej staje się jednym z narzędzi biometrycznego uwierzytelniania dostępu do usług cyfrowych, bo analiza maszynowa – jak pisze magazyn „Wired" – posunęła się do przodu na tyle, że dziś algorytmy nie tylko potrafią zrozumieć, co mówimy, ale też zidentyfikować, kim jesteśmy.

Dlaczego ochrona prywatności głosu jest istotna?

Identyfikacja osób za pomocą głosu to tylko jedno i w dodatku najbardziej oczywiste ryzyko związane z prywatnością, które przychodzi na myśl, kiedy w grę wchodzi np. wykradanie danych gromadzonych przez usługi z interfejsem głosowym.

Urządzenia elektroniczne z takimi interfejsami, jak inteligentne głośniki wyposażone w funkcję asystenta czy telewizory sterowane głosem są dziś wszędobylskie i bardzo często lokalizujemy je np. w sypialni – wizja tego, że fragmenty naszych najbardziej intymnych rozmów i chwil nie tylko wyciekną, ile posłużą do identyfikacji osobowej, powinna być sama w sobie na tyle przerażająca, abyśmy nie zapraszali niepotrzebnej elektroniki do łóżka.

Naukowcy z francuskiego instytutu badawczego INRIA twierdzą jednak, że oprócz identyfikacji osób mówiących, istnieje inne ryzyko – to możliwość wyciągnięcia z głosu wiedzy na temat naszych stanów emocjonalnych, a nawet stanu zdrowia i chorób, na które cierpimy (jak to ma miejsce np. w przypadku opisanej wyżej depresji).

Głos może zatem posłużyć jako kolejna płaszczyzna profilowania nas, nie tylko dla potrzeb marketingu ukierunkowanego, ale i np. polityki.

Kolejnym ryzykiem jest przechwycenie próbek głosowych przez cyberprzestępców, którzy działają w coraz bardziej wyrafinowany sposób i mogą wykorzystać nasz głos np. do tego, aby się pod nas podszyć – incydenty tego rodzaju były już notowane.  

Głos to dane biometryczne

Tak, próbki naszego głosu są danymi biometrycznymi – tak samo, jak odwzorowanie naszej tęczówki, twarzy, czy też zestawu linii papilarnych.

Dane głosowe są już wykorzystywane m.in. do analizy behawioralnej i mapowania emocji np. podczas sondaży telefonicznych, gdzie mierzone są takie parametry jak szybkość mówienia, ton głosu i głębia, które następnie wpisywane są do profilu budowanego wokół konkretnych osób i wykorzystywane np. do zwiększania sprzedaży czy zaangażowania politycznego.

Czy żyjemy zatem w czasach, w których można zebrać dane na temat niemal każdej z naszych funkcji życiowych i właściwości, zestawić je, przeanalizować i wykorzystać po to, abyśmy kupowali więcej i oddawali głos tak, jak życzy sobie tego zlecający daną analizę...?

Pytanie retoryczne, podobnie jak to, czy potrzebujemy prywatności – również w aspekcie ochrony naszych danych głosowych.

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected] Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Komentarze