Armia i Służby
DARPA chce stworzyć narzędzia do rozpoznawania tzw. deep fake'ów
Amerykańska Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (DARPA) chce stworzyć narzędzia do rozpoznawania tzw. deep fake«ów - fałszywych treści wizualnych i dźwiękowych generowanych z użyciem sztucznej inteligencji - podał serwis Nextgov.
DARPA zapowiedziała, że 28 sierpnia odbędzie się z jej inicjatywy specjalne spotkanie w tej sprawie, podczas którego podmioty uczestniczące będą mogły zgłaszać propozycje projektowe. W ramach programu SemaFor (ang. Semantic Forensics, zadania z zakresu kryminalistyki semantycznej - PAP) ma być realizowany projekt obejmujący rozwój narzędzi, które w wykrywaniu zmanipulowanych treści multimedialnych będą wykorzystywały mechanizmy wnioskowania logicznego.
DARPA argumentuje, że technologia deep fake i inne zaawansowane metody dezinformacji obecnie stanowią jedne z głównych problemów dyskutowanych w społeczności eksperckiej skupionej wokół zagadnień bezpieczeństwa narodowego. Jednocześnie, jak zaznacza agencja, narzędzia, które do tej pory opracowano (opierające się m.in. na metodach statystycznych), ze względu na postęp w rozwoju technologicznym adwersarzy w krótkim czasie przestają być wystarczające i nie radzą sobie z nowymi technikami manipulacji.
Nowe narzędzia miałyby m.in. wykrywać nieścisłości i błędy semantyczne, które są często pomijane przez obecnie wykorzystywane środki. Chodzi np. o niewłaściwie dopasowane kolczyki na fałszywym, wygenerowanym przez algorytm zdjęciu kobiety noszącej biżuterię. Treści oznaczone jako sztucznie generowane i stworzone na potrzeby operacji informacyjnych byłyby następnie flagowane przez oprogramowanie jako przeznaczone do moderacji z udziałem zespołu pracowników.
Podmioty zainteresowane zgłoszeniem swoich projektów w ramach programu SemaFor podczas spotkania DARPA mają czas na zarejestrowanie swojego udziału do dnia 21 sierpnia.