Social media
Microsoft opracował narzędzie do wykrywania deep fake'ów
Amerykański gigant technologiczny Microsoft opracował specjalistyczne narzędzie do wykrywania materiałów deep fake’owych, które może analizować zarówno pliki wideo, jak i zdjęcia.
Narzędzie ma analizować materiały wizualne i oceniać w ramach danej skali, z jakim prawdopodobieństwem podczas analizy miało do czynienia z treścią komputerowo zmanipulowaną. Zdaniem Microsoftu nowa technologia będzie użyteczna przede wszystkim w walce z dezinformacją.
Firma z Redmond ogłosiła również powstanie oddzielnego systemu, który będzie pomagał producentom audiowizualnym w osadzaniu w ich materiałach ukrytego kodu. Jego zadaniem ma być pomoc w śledzeniu wszystkich ewentualnych zmian, które towarzyszą dokonywaniu manipulacji deep fake.
Serwis internetowy BBC przypomina, że technologia deep fake zdobyła szerszą popularność jako przedmiot badawczy w 2018 roku, kiedy dzięki oprogramowaniu opartemu o sztuczną inteligencję stworzono narzędzie pozwalające na łatwą manipulację wizerunkami osób przedstawianych na zdjęciach poprzez wymianę ich twarzy. Proces opierał się na wgraniu do systemu komputerowego dużego zbioru zdjęć zawierającego wizerunki różnych ludzi zapisane w formie wideo lub fotografii. Program następnie generował nowy materiał, w którym dokonywał podmiany wizerunku twarzy jednej osoby w miejsce oblicza innej, a także dopasowywał odpowiednio mimikę, jak i synchronizował ruch ust z wypowiadanymi słowami.
Obecnie, jak zwraca uwagę BBC, proces generowania materiałów deep fake jest znacznie uproszczony i dostępny niemal dla każdego użytkownika. Jak wskazuje brytyjski nadawca publiczny, łatwo dostępne oprogramowanie pozwala dziś na podmianę własnej twarzy ze zdjęciem jednego z internetowych celebrytów dla zabawy, ale może być wykorzystane także do celów manipulacji politycznych - np. po to, by przedstawić znanego polityka wypowiadającego słowa, które nigdy nie padły.
Nowe narzędzie Microsoftu ma wykrywać mikroznaki wskazujące na to, że dane nagranie czy zdjęcie zostało wygenerowane sztucznie, w oparciu o oprogramowanie służące do manipulacji wizerunkiem osób. Znaki te są zazwyczaj niewidoczne „gołym okiem” dla internautów, którzy przez to mogą być łatwo wprowadzeni w błąd - podkreśla BBC. Wśród parametrów, na których ma opierać swoje działanie oprogramowanie Microsoftu, znajdują się m.in. takie czynniki jak rozmycie brzegów poszczególnych pikseli w obrazie, które może wskazywać na miejsce łączenia dwóch wcześniej istniejących zdjęć czy nagrań wideo.
Microsoft tłumaczy, iż jego nowy system działa w oparciu o algorytmy uczenia maszynowego wykorzystujące w swojej pracy zbiór około tysiąca fałszywych nagrań wideo, które posłużyły za materiał testowy przy wykrywaniu fałszywek. Według koncernu nowe narzędzie może okazać się szczególnie pomocne przed zaplanowanymi na listopad tego roku wyborami prezydenckimi w USA. Nie będzie ono jednak dostępne publicznie - firma zdecydowała się na jego dystrybucję z użyciem współpracujących z nią organizacji, które będą pośredniczyły w udostępnianiu nowego systemu zainteresowanym jego użyciem podmiotom, takim jak wydawcy medialni czy członkowie sztabów polityków.
Microsoft tłumaczy decyzję o nieudostępnieniu publicznie nowego narzędzia kwestiami bezpieczeństwa - dystrybucja przez pośredników ma sprawić, że osoby zainteresowane wykorzystaniem systemu do szkodliwych działań nie będą mogły w łatwy sposób uzyskać jego kodu, ani użyć go do ulepszenia swoich technik manipulacji treściami.