Cyberbezpieczeństwo
Polskie narzędzie pomoże w walce z oszustwami
Deepfake, czyli fałszywe nagrania audio lub wideo, bądź zdjęcia wygenerowane za pomocą systemów sztucznej inteligencji to rosnący problem w sieci. Do tej pory do rozpoznania fałszywego materiału przydać się mogło jedyne sprawne oko i ucho, ale naukowcy z NASK chcą to zmienić. Tworzą system do detekcji fałszywek.
W okresie wyborczym obywatele są szczególnie narażeni na fałszywe informacje, które mogą wpływać na ich postrzeganie świata, decyzje polityczne czy pogłębiać i tak już wysoki poziom polaryzacji społecznej.
Ministerstwo Cyfryzacji i Ministerstwo Spraw Wewnętrznych i Administracji zapowiedziało program „Parasol wyborczy”, którego celem ma być przeciwdziałanie dezinformacji w sieci. Szczegółowo plan opisywaliśmy w tym materiale.
NASK będzie walczył z deepfake
Jednak to nie wszystko. NASK, w którego strukturach istnieje Dział Przeciwdziałania Dezinformacji ma pracować nad narzędziem do wykrywania i rozpoznawania fałszywych materiałów. Do tej pory eksperci także w swoich analizach kierowali się charakterystycznymi cechami, jakie pojawiają się w przypadku tego typu treści (jak np. rozmazane tło, brak synchronizacji między mową a ruchem warg, automatyczny głos bez emocji itd. - więcej o tym jak rozpoznawać deepfake przeczytacie tutaj), by rozpoznać, co jest fałszywką.
W walce z technologią może pomóc… technologia. Ewelina Bartuzi-Trokielewicz, kierująca w NASK Zakładem Analiz Audiowizualnych i Systemów Biometrycznych przekazała CyberDefence24, że obecnie zespół prowadzi prace badawczo-rozwojowe nad prototypem systemu w ramach dwóch inicjatyw.
„Pierwsza to wewnętrzny projekt badawczy, który koncentruje się na detekcji fałszywych reklam finansowych, produktów medycznych oraz innych manipulacji wykorzystujących deepfake. Druga inicjatywa to projekt dofinansowany z FENG.02.05. »Science4Business – Nauka dla Biznesu«, którego celem jest opracowanie pilotażowego rozwiązania do ochrony osób publicznych i medialnych przed cyfrową manipulacją wizerunkiem i głosem. W ramach projektu dofinansowanego prototyp systemu powinien być gotowy przed końcem roku, natomiast pilotażowe wdrożenie jest planowane na drugą połowę przyszłego roku. Równolegle będziemy rozwijać narzędzie do integracji z platformami cyfrowymi i testować jego skuteczność w różnych warunkach” - tłumaczy CyberDefence24.pl.
Scamy finansowe i wizerunek osób publicznych
Oba systemy mogą być bardzo istotne w walce z fałszywymi treściami w sieci, zważając na skalę oszukańszych reklam na platformach społecznościowych czy w wyszukiwarkach internetowych przez które codziennie nieświadomi użytkownicy mogą tracić dane i oszczędności swojego życia.
Drugim bardzo poważnym aspektem w tym kontekście jest wykorzystywanie wizerunku osób publicznych do scamu - oszuści w ten sposób często prezentują fałszywe „newsy” i podszywają się pod serwisy internetowe, przygotowując informacje z celebrytami, którzy rzekomo namawiają do inwestycji. W rzeczywistości to próba wyłudzenia pieniędzy, bazując na zaufaniu do rozpoznawalnej osoby. Tu warto przywołać choćby przykłady scamów z Rafałem Brzoską i Omeną Mensah, co opisywaliśmy w tym tekście.
Kiedy NASK planuje uruchomić dwa systemy do detekcji deepfake? Ewelina Bartuzi-Trokielewicz stwierdza, że w pierwszej kolejności systemy będą dostępne dla instytucji publicznych, które mogą wykorzystywać je do ochrony przed dezinformacją, manipulacją i kradzieżą tożsamości. Jednak Instytut ma też planować współpracę z firmami komercyjnymi, szczególnie z mediami i sektorem finansowym.
„Fałszywe informacje mogą prowadzić do dużych strat finansowych i niszczenia reputacji” - zaznacza ekspertka. „Docelowo chcemy rozwijać wyniki projektu jako narzędzia dostępnego dla szerszego grona użytkowników – w formie np. wtyczki do przeglądarek, pozwalającej na analizę potencjalnych deepfake«ów w mediach społecznościowych. Systemy powstają w odpowiedzi na rosnące zagrożenie związane z deepfake’ami, które są wykorzystywane do dezinformacji, manipulacji medialnej, szantażu, oszustw finansowych i kradzieży tożsamości” - objaśnia CyberDefence24.pl.
Opracowywane systemy mają łączyć analizę wielomodalną (obraz i dźwięk), ale także obejmować analizę przekazywanych treści i występujących w nich socjotechnik. W przyszłości ma być również planowana integracja z mediami społecznościowymi, aby umożliwić automatyczną weryfikację materiałów podejrzewanych o manipulację.
Tysiące fałszywych reklam
Szefowa Zakładu Analiz Audiowizualnych i Systemów Biometrycznych w NASK zaznacza również, że w ubiegłym roku (w ramach dotacji Ministerstwa Cyfryzacji) zespół realizował analizę manipulacji wizerunków twarzy i ich wpływu na systemy biometryczne, badał metody klonowania głosu, porównując głosy syntetyczne z prawdziwymi; analizował treści fałszywych reklam oraz schematy oszustw stosowane w deepfake’ach; opracowywał także metody wykrywania fałszywych logotypów.
Łącznie - we współpracy z CSIRT KNF - zebrał 9146 linków do fałszywych reklam (7469 obrazów i 1677 filmów), które ręcznie „oznaczył” jako deepfake i przeanalizował pod kątem użytych technik manipulacji. Na tej podstawie nie tylko zbadał najpopularniejsze schematy oszustw, ale też dostosował swoje algorytmy do nowych metod cyberprzestępców.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Jak odkryto blokady w pociągach Newagu?