Armia i Służby
US Special Forces vs dezinformacja. Czy sztuczna inteligencja przechyli szalę zwycięstwa?
Platforma automatycznie rozpoznająca dezinformację i oddzielająca fałszywe informacje od prawdziwych? Nad takim rozwiązaniem będą pracować SOCOM i US Air Force w celu zdominowania przestrzeni informacyjnej i poprawy wizerunku w sieci.
Działania informacyjno-psychologiczne, które mają miejsce w cyberprzestrzeni stanowią coraz większy problem dla amerykańskiego wojska. Dezinformacja przyczynia się do znacznego pogorszenia reputacji amerykańskich wojsk, co utrudnia im działania. Przekazywanie lokalnej społeczności wiarygodnych informacji są niezwykle istotne z punktu widzenia operacji sił specjalnych i często decydują o powodzeniu misji czy potencjalnej śmierci. Dlatego walka w środowisku informacyjnym jest tak ważna a siły zbrojne muszą być dobrze do niej przygotowane.
Rewolucyjne rozwiązanie oparte na sztucznej inteligencji
SOCOM (Special Operationa Command) i Air Force podpisały roczny kontrakt z firmą Primer, zajmującą się tworzeniem rozwiązań na bazie sztucznej inteligencji i uczenia maszynowego. Na jego mocy powstanie pierwsza platforma wykorzystująca uczenie maszynowe do identyfikacji i oceny treści pod kątem dezinformacji. Wcześniej zastosowanie tej technologii było niemożliwe, ale nowe podejście rozwijania naturalnego języka przez inżynierów Primera ma przynieść pożądane rezultaty.
W komunikacie prasowym firmy podkreślono, że przeciążenie informacją jest jednym z największych wyzwań dla amerykańskiego wojska. Każdego dnia, ludzkość tworzy 2.5 kwintylionów bajtów nowych danych. To ogromne wyzwanie dla analityków wywiadu, dla których ilość analizowanych dziennie informacji zmieniła się z 20 tys. na 200 tys. słów w ostatnich 20 latach. W 2025 roku ma wynieść 2 mln. Tak ogromne zwiększenie się wolumenów danych stanowi poważny problem. Co więcej, analitycy muszą się zmierzyć z coraz większą liczbą fałszywych i zmanipulowanych informacji, co dodatkowo utrudnia im pracę zarówno w wywiadzie i jak wojsku.
Rozwiązanie Primera ma czytać oraz pisać w języku angielskim, rosyjskim, chińskim i być w stanie automatycznie zidentyfikować główne trendy oraz najważniejsze elementy przetwarzanych wolumenów danych, bazując na częstotliwości pojawiania się danych słów i fraz. To może być niezwykle użyteczne w przypadku, kiedy potrzebna jest szybka synteza długiego tekstu. Nowa technologia umożliwi automatycznie czytanie oraz wynajdywanie informacji tak, aby zwiększyć szybkość i jakość podejmowanych decyzji w czasie rzeczywistym.
Długa droga do końcowego sukcesu
Jednocześnie twórcy Primera są świadomi, że nauczenie platformy odróżniania prawdy od fikcji będzie długotrwałym procesem. Streszczenie artykułów czy napisanie nagłówków jest względnie proste, a co innego stwierdzenie co jest treścią dezinformującą. Twórcy trening swojego oprogramowania porównują do uczenia się dziecka. Primer ma rozpoznawać wiadomości pochodzące z zaufanych źródeł oraz identyfikować te, które pochodzą od mało wiarygodnych podmiotów. Oczywiście ten proces wymaga czasu, ogromnej liczby danych, ćwiczeń i ciągłej kontroli. Ponadto trudno jest jednoznacznie zdefiniować zaufane źródła, bo nawet oficjalne komunikaty rządów czy informacje pochodzące z renomowanych mediów zawierają dezinformacyjne treści umieszczane przypadkowo, a w niektórych przypadkach nawet umyślnie. I tutaj producenci platformy liczą na SOCOM i Air Force, że będą one w stanie podać najbardziej wiarygodne źródła informacji używane w codziennej pracy. Wkład żołnierzy tych dwóch formacji pozwoli w przyszłości platformie rozwinąć pewien sens umożliwiający stwierdzenie, że dane informacje są wiarygodne czy nie bazując głównie na źródle pochodzenia informacji.
Prezentacja nowej platformy odbyła się na przykładzie trwającego konfliktu pomiędzy Armenią i Azerbejdżanem. Nowa technologia była w stanie znaleźć wiadomości, źródła i posty w mediach społecznościowych na temat konfliktu, a następnie je pogrupować wskazując m.in. co dana strona mówi o konkretnym wydarzeniu np. nalocie. Pozwalało to natychmiast zorientować się, jaka jest opinia grupy albo strony zaangażowanej w konflikt. Oczywiście w obecnej fazie platforma nie była w stanie wykryć co było prawdą a co nie, ale ta funkcja pojawi się dopiero wraz z rozwojem tej technologii.