Reklama

Technologie

#CyberMagazyn: Deepfake. Ekspertka radzi, jak nie dać się oszukać

Technologia deepfake
Technologia deepfake jest wykorzystywana przez oszustów
Autor. rawpixel.com / Freepik

Technologia sztucznej inteligencji za pomocą której powstają deepfake’i jest coraz bardziej zaawansowana. Wykorzystywane są często do wyłudzania pieniędzy czy wpływania na decyzje wyborcze. Jak rozpoznać fałszywe zdjęcia i filmy? O tym rozmawiamy z dr inż. Eweliną Bartuzi-Trokielewicz z Pionu Sztucznej Inteligencji w NASK.

Monika Blandyna Lewkowicz, CyberDefence24.pl: czym są deepfake’i?

Ewelina Bartuzi-Trokielewicz, z Pionu Sztucznej Inteligencji w NASK: Deepfake to forma wykorzystania sztucznej inteligencji w celu zmanipulowania publiki, poprzez wytworzenie i opublikowanie w mediach fałszywych obrazów, dźwięków i filmów, które wyglądają i brzmią autentycznie. Technologia deepfake pozwala na tworzenie lub modyfikowanie wizerunku twarzy oraz na klonowanie głosu.

Czytaj też

Klonowanie głosu

Jak działa klonowanie głosu?

Do tworzenia syntetycznej mowy wykorzystywane są dwie metody. Najbardziej powszechna to generowanie mowy na podstawie tekstu i próbki głosu. Tą metodę nazywamy Text to Speech (TTS). Głos jest wytwarzany przez aparat mowy – udział w tym procesie ma żuchwa, język, wargi, zęby itp. Te elementy pozwalają na produkowanie głosu o cechach indywidualnych dla każdego człowieka. Sieci neuronowe technologii AI są w stanie za pomocą szeregu procesów analizować cechy akustyczne z próbki głosu i nanosić je na tekst przez system.

Na podstawie cech akustycznych i wpisania tekstu, który chcemy, żeby dana osoba wypowiedziała w deepfake’u - możemy wygenerować nagranie z dowolną wypowiedzią. Obecnie te syntetyczne głosy są bardzo maszynowe albo odzwierciedlają styl mowy z próbki. Jeśli mamy próbkę pochodzącą z kłótni, to wynikowy głos prawdopodobnie też będzie bardzo nacechowany emocjami. W Polsce ta metoda jest często wykorzystywana przez oszustów przy nakłanianiu do fałszywych inwestycji.

Czytaj też

Reklama

Jaka działa druga metoda klonowania głosu?

Nazywana jest Speech to Speech (STS), czy też konwersją głosu. Jest bardziej niebezpieczna, ponieważ umożliwia potencjalnie oszustowi rozmowę w czasie rzeczywistym. Tzn. prawie w czasie rzeczywistym, bo zazwyczaj występuje przesunięcie między głosem oryginalnym a zmodyfikowanym, które wynosi około sekundy.

W tym wypadku model jest nauczony cech indywidualnych człowieka i te cechy są nanoszone bezpośrednio na tekst wypowiadany przez oszusta. Ta metoda pozwala przenosić styl mowy i intonację, tworząc wrażenie bardzo naturalnej rozmowy. Jednak czasami ciężko jest odtworzyć sposób mówienia danej osoby. Wytworzenie materiału STS wymaga znacznie większej próbki głosowej niż w przypadku TTS. Trening modelu też jest dłuższy.

Ostatnio słyszałam o wykorzystaniu tej metody przez oszusta na Messengerze. Ktoś włamał się ofierze (kobiecie), na Facebooka i wysyłał do znajomych głosówki w jej imieniu. Próbki głosu ofiary, wykorzystane do syntezy głosu, oszust znalazł w internecie. Prosił jej znajomych o wysłanie BLIK-a. Kiedy odpowiadali, nagrywał kolejne głosówki i toczył z nimi naturalną rozmowę.

Czytaj też

Reklama

Deepfake podczas kampanii wyborczej  w Polsce

W jakich jeszcze celach wykorzystywane są deepfake’i?

Do wpływania na decyzje wyborcze, np. przez przedstawianie polityków w kompromitujący sposób. W ostatniej kampanii wyborczej w Polsce, czyli przed wyborami samorządowymi, takie zdarzenie miało miejsce w Bydgoszczy. Fałszywka powstała z użyciem technologii deepfake i sztucznej inteligencji.

Nagranie jednego z kandydatów na prezydenta miasta - Łukasza Schreibera, w którym przedstawiał obietnice wyborcze, zostało zmanipulowane. Na deepfake’u polityk zapowiadał cykliczne walki kobiet MMA, które miałyby się odbywać na Starym Rynku w Bydgoszczy.

Inny głośny przypadek miał miejsce w Stanach Zjednoczonych. Rozsyłano deepfake’i, w których fałszywy głos Joe Bidena wzywa Demokratów, by nie głosowali w prawyborach w USA.

Czytaj też

Reklama

Dezinformacja za pomocą deepfake

Z technologii korzystają też Rosjanie.

Zgadza się – do szerzenia dezinformacji w związku z inwazją na Ukrainę. Rosyjskie służby specjalne produkują fałszywe nagrania np. z wizerunkiem Zełenskiego czy zmanipulowane materiały z frontu. Raz próbowały podszyć się pod premiera Ukrainy Denysa Szmyhala i połączyć się z firmą Bayraktar, produkującą drony. Jednak ukraińskie służby przechwyciły tę próbę i odpowiednio zareagowały.

Czytaj też

Jak działają oszuści

Wrócimy jeszcze do oszustw z użyciem deepfake. Na co trzeba uważać?

Oszuści często wykorzystują wizerunki znanych osób, autorytetów np. przedsiębiorców, polityków, prezenterów telewizyjnych czy influencerów do reklamowania jakichś produktów lub namawiania do fałszywych inwestycji. Na takim deepfake’u znana osoba mówi np. o aplikacji, dzięki której można szybko zarobić pieniądze. Jeśli jesteśmy zachęcani bardzo łatwym zarobkiem, albo do podjęcia decyzji tu i teraz - od razu powinna zapalić się nam „czerwona lampka”.

Oszuści korzystają też z technologii deepfake w metodzie na wnuczka”, „na policjanta”, „strażaka” itp. Używają próbki głosu członka rodziny do wygenerowania rozmowy w czasie rzeczywistym. Dzwonią np. do babci i fałszywym głosem wnuczka mówią, że znajduje się on w niebezpieczeństwie albo spowodował wypadek i trzeba szybko przelać pieniądze. Rozmowa wydaje się całkiem naturalna.

Oszuści wykorzystują podobne metody do sfingowania porwań. Dzwonią np. do rodzica i głosem ich dziecka sugerują, że dzieje się coś dramatycznego. Wtedy najlepiej po chwili jeszcze raz zadzwonić do pociechy i upewnić się, co do przebiegu sytuacji. Gorzej, jeśli dziecko nie odbierze, bo np. trwają lekcje w szkole.

Ostatnio słyszałam też o metodzie, gdzie oszust podszył się pod syna przyjaciółki mówiąc, że jest chory na raka i potrzebuje pieniędzy na leczenie, ale nie chce martwić swojej mamy. Ale wpadł, bo zapytał się o zdrowie wujka tej kobiety, który nie żył od pięciu lat.

Aby nie paść ofiarą podobnego oszustwa, warto wraz z rodziną ustalić wzorce weryfikacyjne, np. zadać pytanie, na które przestępca nie będzie znał odpowiedzi. Czasem wystarczy zapytać o imię dzwoniącej osoby, żeby oszust się rozłączył.

Czytaj też

Wyłudzanie pieniędzy w firmach

Przestępcy potrafią też nabrać doświadczonych biznesmenów.

Zgadza się. Ostatnio głośno było o przypadku, gdzie jeden z pracowników międzynarodowej firmy uwierzył w deepfake i wypłacił oszustom 25 milinów dolarów. Sprawcy wykorzystali technologię, by stworzyć fikcyjne osoby, biorące udział w wideokonferencji. Odtworzyli wygląd i sposób mowy członków zarządu tej firmy.

Podobny przypadek miał miejsce pod Warszawą. Jedna z firm logistycznych została oszukana na około pół miliona euro. Podpisała umowę z człowiekiem, który jak się później okazało, w ogóle nie istniał. Oszust wygenerował głos i wizerunek całkowicie od zera i przeprowadził z przedstawicielami firmy widerozmowę, mającą pokazać, że jest doświadczonym biznesmenem. Myślę, że o wielu takich przypadkach nigdy się nie dowiemy. Firmy nie chcą się chwalić tym, że któryś z pracowników został oszukany.

Technologia deepfake jest też wykorzystywana do tworzenia pornografii.

Niestety to częsty proceder, który może prowadzić do zniesławienia lub zagrożenia prywatności osób.  Wizerunek ofiar jest wykorzystywany w takich materiałach bez wiedzy i zgody. Dodatkowo istnieją fora i grupy w tzw. darknecie, które specjalizują się w tworzeniu bardzo realistycznych materiałów pornograficznych i wymieniają się sposobami ich tworzenia.

Spreparowane materiały są później umieszczane na portalach z treściami dla dorosłych lub nielegalnie sprzedawane. Są raporty, które wskazują, że nawet 96-98 proc. wszystkich deepfake«ów to materiały związane z pornografią, głównie celowane na wykorzystanie wizerenku kobiet.

Czytaj też

Pozytywne zastosowanie deepfake

Mówimy dużo o zagrożeniach związanych z deepfake’ami. A czy ta technologia ma jakiś pozytywne zastosowania?

Słyszałam o przypadku, gdzie dzięki deepfake’owi udało się zidentyfikować tożsamość ofiary i znaleźć sprawców zbrodni. Technologię wykorzystują też artyści w różnych projektach. Pozytywnym zastosowaniem jest tworzenie avatarów, które zajmują się różnymi procedurami w firmach, np. obsługą klienta. Deepfake’i też wykorzystywane w filmach, np. kiedy trzeba odmłodzić aktora o kilka lat.

Można też z tej technologii korzystać w edukacji. Nauczyciel może przeprowadzić kreatywną lekcję, podczas której wygenerowane postaci historyczne mówią o przebiegu danego wydarzenia. Uczniowie mogą z takimi avatarami wchodzić w interakcje.

Deepfake’i mogą być też używane do ochrony tożsamości np. świadków przestępstw, którzy nie będą musieli pokazywać prawdziwej twarzy i głosów podczas zeznawania.

Deepfake – cechy charakterystyczne

Po czym rozpoznać, że mamy do czynienia z deepfake’iem?

Może to być trudne, ale są różne elementy, na które warto zwrócić uwagę. Sfałszowane nagrania głosowe często charakteryzują się błędami w wymowie. Głos jest robotyczyny, pozbawiony emocji. Innym razem wyraz twarzy lub wypowiadana treść może są niezgodne z emocją, jaka powinna się pojawić.

Drugim aspektem, który łatwo wyłapać, jest błędna odmiana liczebników - często daty inwestycji, kwoty, jakie rzekomo można zarobić, są niepoprawnie odmieniane. Źle wymawiane są też słowa zapożyczone z innych języków. Pojawiają się zmiany akcentu czy intonacji podczas wypowiedzi danej osoby, np. akcent nagle staje się charakterystyczny dla innego języka. Bardzo często na początku i na końcu fałszywych nagrań pojawiają się trzaski lub dziwne dźwięki, które za bardzo nie pasują do kontekstu.

A jakie są charakterystyczne cechy deepfake;ów na nagraniach wideo?

Nienaturalne ruchy głowy, niezgodność ruchu warg z mową. Rozmazania i wyostrzenia wokół ust. Problemy z generacją szczegółów: włosów, zębów, zmarszczek, np. zmarszczki pojawiają się i znikają, dana osoba nie mruga wcale lub za często.

Istnieją agencje fact-checkingowe, w których specjaliści przeglądają podejrzane materiały klatka po klatce i weryfikują, czy mogły być zmanipulowane. Są też narzędzia, które automatycznie wykrywają różne artefakty, ukryte w obrazie, których człowiek nie jest w stanie zauważyć gołym okiem.

Warto z nich skorzystać, najważniejsze jest jednak krytyczne myślenie i zdrowy rozsądek. Obecnie każdy człowiek powinien podchodzić krytycznie do tego, co widzi i słyszy w internecie. Najlepiej zatrzymać się na chwilę i pomyśleć, czy to co widzieliśmy, może być prawdziwe, czy nie. Sprawdzić, czy media nie zweryfikowały już danego materiału jako manipulację. Ważne jest też śledzenie technologii i edukowanie na ten temat bliskich, szczególnie dzieci i osoby starsze.

Czytaj też

Deepfake a prawo

A co na to prawo? Czy są rozwiązania, które zapobiegają rozpowszechnianiu deepfake«ów?

W Polsce regulacje prawne dotyczące technologii takich jak deepfake są nadal w fazie rozwoju. Obecnie nie ma przepisów, które wprost regulowałyby te kwestie. Istnieją jednak przepisy dotyczące ochrony danych osobowych, prawa autorskiego czy zwalczania oszustw i mogą być one stosowane do pewnych aspektów tworzenia i rozpowszechniania deepfake«ów.

Mamy też propozycję regulacji na poziomie Unii Europejskiej – AI Act, która ma na celu zarządzanie ryzykiem związanym z różnymi aplikacjami i zastosowaniami sztucznej inteligencji, w tym potencjalnie również technologiami deepfake. 

Projekt ten zakłada kategoryzację aplikacji AI według poziomu ryzyka i wprowadzenie odpowiednich wymogów dla różnych kategorii. Mimo że AI Act jeszcze nie został formalnie przyjęty i wdrożony, jego przepisy mogą w przyszłości znacząco wpłynąć na regulacje dotyczące deepfake w Polsce i innych krajach UE. Działania mające na celu ograniczenie negatywnych skutków technologii deepfake będą prawdopodobnie ewoluować w miarę rozwoju technologii oraz zrozumienia jej wpływu na społeczeństwo.

Czytaj też

Zgłaszanie deepfake

Co zrobić, jeśli mamy podejrzenie lub pewność, że trafiliśmy na deepfake?

Jeśli sytuacja dotyczy dyskredytacji osoby prywatnej - najlepiej iść na policję. Deepfake’i do weryfikacji można przesyłać na adres [email protected]. Próby wyłudzenia danych można zgłosić na incydent.cert.pl. Materiały o treści pornograficznej najlepiej zgłaszać bezpośrednio do Dyżurnetu.

Dziękuję za rozmowę.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama