Reklama

Technologie

Klonowanie głosu przy użyciu AI – sposób na scam przyszłości?

Deepfake audio może być kolejnym, poważnym zagrożeniem
Deepfake audio może być kolejnym, poważnym zagrożeniem
Autor. Craig Pattenaude/ Unsplash/ Domena publiczna

W ostatnich miesiącach amatorskie filmy wykorzystujące sztuczną inteligencję do klonowania głosu znanych osób zdobywają na TikToku milionowe wyświetlenia. Użytkownicy zachwycają się słownymi przepychankami czołowych polityków, którzy grają w Counter-Strike’a, Minecrafta lub bawią się w parku rozrywki. Rozwój technologii klonowania głosu może jednak stać się świetną okazją dla internetowych oszustów. Warto więc poznać kilka wskazówek, jak rozpoznać mowę tworzoną przez AI.

Reklama

Klonowanie głosu dostępne dla każdego

Klonowanie głosu (z ang. voice cloning) polega na użyciu sztucznej inteligencji (AI) do kreowania mowy danej osoby, poprzez tworzenie klonu jej głosu. Na pierwszy rzut oka może się wydawać, że jest to przedsięwzięcie wymagające ponadprzeciętnych zdolności i dużego doświadczenia. Wyobrażamy sobie hakera, który stuka w klawiaturę laptopa, a na ekranie szybko przewijają się zielone cyferki. Rzeczywistość jest jednak zupełnie inna.

Reklama

Gdy wejdziemy w wyszukiwarkę internetową, już w kilka sekund jesteśmy w stanie wyszukać nie tylko strony oferujące proste w obsłudze oprogramowanie, lecz także szczegółowe instrukcje, jak go używać. Obecnie na rynku dostępne są różne aplikacje (np. ElevenLabs), które za niewielką opłatą pozwalają na sklonowanie dowolnego głosu – musimy tylko posiadać jego krótkie nagranie. Z kolei wytyczne, jak te programy używać, odnajdziemy zarówno na TikToku i YouTubie , jak i w różnych artykułach dostępnych w sieci.

Gdy weźmiemy pod uwagę, jak wiele osób wrzuca do internetu filmy, w których wypowiada się na różne tematy, nietrudno jest zdobyć próbki głosu, które mogą zostać wykorzystane do klonowania. Wymagania co do czasu trwania takiego nagrania audio różnią się w zależności od platformy. Przykładowo: oprogramowanie z firmy ElevenLabs potrzebuje do osiągnięcia zamierzonego efektu zaledwie minutowe nagranie.

Reklama

Przykładami amatorskiego wykorzystania sztucznej inteligencji z wykorzystaniem klonowania mowy są filmy, które w celach humorystycznych publikuje się na TikToku. Gdy wpiszemy w wyszukiwarkę aplikacji wyrażenie, np. „politycy grają” , odnajdujemy dziesiątki publikacji wykorzystujących głosy polskich polityków.

Czytaj też

Zagrożenia wynikające z łatwej dostępności oprogramowania

Prężnie rozwijająca się technologia otwiera nowe możliwości dla internetowych oszustów, o czym już piszą zagraniczne media . Przykładowo: w pierwszej połowie 2023 roku internet zalała fala informacji o próbie wyłudzenia okupu za osobę, która nigdy nie została porwana. Do Jennifer DeStefano z Arizony, matki 15-letniej Brie, zadzwonili oszuści, z informacją, że uprowadzili jej córkę. Żądali miliona dolarów okupu. W tle rozmowy słychać było głos dziewczyny, która błaga matkę o pomoc. Jak się okazało, podczas gdy Jennifer rozmawiała z rzekomymi porywaczami, nieświadoma niczego Brie bezpiecznie przebywała we własnym łóżku.

To niejedyny przypadek, kiedy scamerzy – z wykorzystaniem klonowania głosu – podszywali się pod różne osoby. Problemem są próby wyłudzeń, znane jako metody „na wnuczka” . Niestety, oszuści stają się coraz bardziej przekonujący – dzięki wykorzystaniu sklonowanego głosu danej osoby zdobywają pełne zaufanie jej niczego nieświadomych bliskich. Mówią, że mają kłopoty, i nakłaniają do przekazania pieniędzy.

Problem ten zauważyła sama firma ElevenLabs, która 30 stycznia 2023 roku napisała na Twitterze: „Chociaż widzimy, że nasza technologia jest w przeważającej mierze stosowana do pozytywnych zastosowań, obserwujemy również rosnącą liczbę przypadków niewłaściwego użycia klonowania głosu”. Dlatego warto poznać kilka wskazówek, jak rozpoznać mowę tworzoną przez AI i jak reagować w przypadku podejrzeń oszustwa.

Czytaj też

Naucz się rozpoznawać klonowany głos

Programy umożliwiające klonowanie głosu wciąż się rozwijają, a wypowiedzi powstałe dzięki nim mogą być trudne do zidentyfikowania. Istnieje jednak kilka szczegółów, które mogą pomóc w rozpoznaniu dźwięku stworzonego przez sztuczną inteligencję:

  • Niepoprawna intonacja - w niektórych przypadkach wypowiedzi generowane przy pomocy sztucznej inteligencji mogą brzmieć nienaturalnie . Zastanów się, czy „osoby” wypowiadające się nie kończą zdania nagle, czy między słowami nie ma zbyt długich odstępów lub w ich głosie nie brakuje emocji.
  • Ludzie popełniają błędy - wypowiedzi stworzone przez AI często mogą wydać się zbyt „idealne” . Osoby mówią w sposób jednostały i płynny, nie używają przerywników, takich jak „yyy”, „eee”. Nie popełniają również błędów, nie robią pauz na zastanowienie się oraz nie jąkają się.
  • Oddech - podczas próby zweryfikowania prawdziwości wypowiedzi zastanów się, czy słyszysz, jak osoba - mówiąca oddycha . W wypowiedziach generowanych przez AI często nie ma przerwy na zaczerpnięcie powietrza, nie słychać również wdechów czy wydechów.
  • Kontrowersyjność wypowiedzi - mając na uwadze nadchodzące wybory w Polsce, warto zwracać szczególną uwagę na wypowiedzi polityków w internecie. Zwłaszcza jeśli osoby wypowiadają się w sposób zbyt kontrowersyjny lub wulgarny – jest to czerwona flaga, wskazująca, że możemy mieć do czynienia ze sztuczną inteligencją.

Czytaj też

Uodpornij się na oszustwa z wykorzystaniem klonowania głosu

W sytuacji gdy podejrzewamy, że staliśmy się celem oszustwa z wykorzystaniem klonowania głosu, warto pamiętać o kilku wskazówkach, mogących pomóc w weryfikacji osoby po drugiej stronie słuchawki:

  • Sekretne słowo - na wszelki wypadek warto ustalić z członkami rodziny i najbliższymi specjalne słowo-kod , które będzie oznaczało prośbę o pomoc lub będzie służyło weryfikacji tożsamości.
  • Zadaj szczegółowe pytanie - jeśli mamy wątpliwości dotyczące tożsamości osoby, z którą rozmawiamy, zadajmy jej osobiste pytanie , na które odpowiedzi nie można znaleźć w internecie, np. jak ma na imię ich pupil lub gdzie ostatnio byliście na wakacjach.
  • Zadzwoń do bliskiej osoby - zweryfikuj, czy informacje, które podaje ci osoba, z którą rozmawiasz, są prawdziwe. Zadzwoń na numer, który wiesz, że do niej należy, bądź skontaktuj się z kimś, kto może przebywać w jej obecności.
  • Podejrzane prośby - zachowaj szczególną czujność, kiedy osoba, z którą rozmawiasz, prosi cię o przesłanie pieniędzy w sposób utrudniający zlokalizowanie odbiorcy. Zwróć uwagę na prośby o podanie kodów kart podarunkowych, na przelewy w kryptowalutach czy na płatności za pośrednictwem BLIK.

Autorka: Justyna Stańska, Stowarzyszenie Demagog

Reklama

Komentarze

    Reklama