Reklama

Technologie

Wojsko używa sztucznej inteligencji. Jest już na wojnie

wojsko żołnierz polska
Żołnierz Wojska Polskiego
Autor. 18 Dywizja Zmechanizowana (@Zelazna_Dywizja)/X

Microsoft Digital Defense Report wskazuje, że tylko w 2022 roku cyberataki dotknęły aż 120 krajów. Blisko połowa z nich została wymierzona w państwa członkowskie NATO, a ponad 40 proc. było skierowanych w instytucje rządowe lub organizacje z sektora prywatnego związanego z budową i utrzymaniem infrastruktury krytycznej. Coraz częściej cyberprzestępcy wykorzystują do ataków sztuczną inteligencję. Wojsko również ją wykorzystuje. Przykładem może być wsparcie działania dronów czy rozpoznanie, co pokazuje Ukraina. „Nie ma nowoczesnego konfliktu bez sztucznej inteligencji” – podkreślił gen. bryg. Mariusz Chmielewski, zastępca dowódcy DKWOC. 

Reklama

Materiał sponsorowany Microsoft

Reklama

Technologia sztucznej inteligencji (AI) zyskuje popularność. Każdy z nas może z niej korzystać, sięgając po takie narzędzia jak np. ChatGPT. Potencjał AI daje z jednej strony szansę na wzmocnienie cyberbezpieczeństwa, lecz z drugiej pozwala „podkręcić” zdolności wrogim podmiotom. Sama też stanowi cel działań. 

Tematem tym zajęli się podczas ostatniej edycji konferencji Cyber24 Day organizowanej przez redakcję CyberDefence24 specjaliści, wśród których nie zabrakło wojskowych, przedstawicieli biznesu oraz środowiska naukowego.

Reklama

Czytaj też

Sztuczna inteligencja. Co to?

Na samym początku debaty pt. „Sztuczna inteligencja jako cel ataków i narzędzie w cyberbezpieczeństwie” eksperci odnieśli się do kwestii podstawowych. Definicji AI jest tak wiele, jak wielu zainteresowanych. Z tego względu nie istnieje jednolite wyjaśnienie tego pojęcia.

Nie ma definicji sztucznej inteligencji, którą wszyscy uznalibyśmy za słuszną.
Płk dr inż. Rafał Kasprzyk, zastępca Dziekana Wydziału Cybernetyki na Wojskowej Akademii Technicznej

Według dr hab. inż. Szymona Łukasika, kierownika pionu sztucznej inteligencji NASK, AI można rozumieć jako naśladowanie zachowań inteligentnych. Jeśli przyjmiemy taki punkt widzenia, zauważymy wówczas, że jest ona wszędzie: od małych modeli przeznaczonych do stabilizacji obrazu, po duże służące rozpoznawaniu obrazu. 

Z kolei dla gen. bryg. Mariusza Chmielewskiego, zastępcy dowódcy polskich cyberwojsksztuczna inteligencja to „forma automatyzacji”. Zaś płk dr inż. Rafał Kasprzyk z WAT zwrócił uwagę, że celem AI jest przetwarzanie i analizowanie ogromnej ilości danych, wyciąganie na tej podstawie wniosków, dzięki czemu możemy wdrażać pozyskaną wiedzę. 

Adam Dzwonkowski, Defense & Intelligence Technology Lead w Microsoft, przypomniał, że nowoczesna sztuczna inteligencja to nie jest coś nowego, co powstało w ostatnim czasie. Jak zaznaczył, mówimy tu o kilkunastu latach. „Zaczęło się od teoretyków, potem zajęły się tą dziedziną firmy technologiczna, a dzisiaj mamy tego efekty” – podkreślił, odnosząc się do rozwiązań z których korzystamy każdego dnia (np. smartwatche). 

cyber24day
Adam Dzwonkowski, Defense & Intelligence Technology Lead, Microsoft
Autor. Mirosław Mróz

Według Jolanty Malak, regionalnej dyrektor sprzedaży Fortinet, nie da się uciec od AI. Wynika to z faktu, że – w jej ocenie – mówimy o kolejnym etapie rozwoju, który przed nami stoi. Możemy się tylko zastanowić, jak tę technologię dobrze wykorzystać. 

Czytaj też

AI jest już na wojnie

Coraz więcej mówi się na temat wykorzystania sztucznej inteligencji w siłach zbrojnych, w tym na linii frontu. Na myśl przychodzą wizje rodem z filmów science fiction, gdzie autonomiczne maszyny prowadzą operacje militarne w zastępstwie człowieka. Do takiego scenariusza jeszcze nam daleko, co wcale nie oznacza, że AI nie jest już używana w działaniach wojskowych. 

Nie ma nowoczesnego konfliktu bez sztucznej inteligencji” – podkreślił podczas Cyber24 Day gen. bryg. Mariusz Chmielewski. W czasie swojej wypowiedzi odniósł się do np. narzędzi przeznaczonych do rozpoznania obrazu, które bazują na modelach AI. 

„Z punktu widzenia wojskowego chodzi o zdobycie przewagi technologicznej, a wręcz dominacji nad wrogiem” – dodał płk dr inż. Rafał Kasprzyk. 

Przedstawiciel WAT przekazał uczestnikom dyskusji, że siły zbrojne wdrażają AI w każdej domenie (ląd, powietrze, woda, kosmos, cyber). Algorytmy znajdują zastosowanie w wielu obszarach. Sprawdzają się w przypadku m.in. działań rozpoznawczych (szybko analizują obrazy), co pokazują wydarzenia na Ukrainie. 

Innowacyjna technologia wspiera także proces szkoleniowy żołnierzy. „Czy potrzebujemy testów sprawnościowych w wojsku?” – zapytał podczas panelu gen. bryg. Mariusz Chmielewski.

cyber24 day
Gen. bryg. Mariusz Chmielewski, Zastępca Dowódcy Komponentu Wojsk Obrony Cyberprzestrzeni
Autor. Mirosław Mróz

„Dajcie mi jego lub jej zegarek (smartwatch – red.), zapis danych codziennej aktywności z ostatniego miesiąca i jestem w stanie z dokładnością 99 proc. ocenić, czy jest wydolny/a fizycznie i jaka jest jego/jej motoryka” – stwierdził przedstawiciel Dowództwa Komponentu Wojsk Obrony Cyberprzestrzeni (DKWOC). 

To pokazuje, jak szerokie zastosowanie w wojsku ma technologia sztucznej inteligencji. 

Czytaj też

Dlaczego AI nie decyduje o uderzeniu?

Algorytmy (mniej i bardziej zaawansowane) wspierają siły zbrojne w wielu procesach, ale jak na razie nie przekazujemy im władzy do podejmowania kluczowych decyzji, np. o przeprowadzeniu uderzenia. Dlaczego? 

„Algorytmy nie maja intuicji” – wyjaśnił zastępca dowódcy DKWOC. W jego ocenie, jeśli ktoś zdecyduje się powierzyć AI tak ważne decyzje, przekroczymy niebezpieczną granicę. Obecnie kierujemy się ustalonymi wartościami i zasadami. Z punktu widzenia etycznego, potrzebujemy wskazać osobę odpowiedzialną za dane działanie. 

Zagadnienia dotyczące odpowiedzialności są determinantem tego, dlaczego jeszcze algorytmy nie decyzją o przeprowadzeniu uderzenia.
Gen. bryg. Mariusz Chmielewski, zastępca dowódcy DKWOC

Jednak nie wszędzie na świecie tak jest, przez co inne państwa, regiony zyskują przewagę nad Zachodem w wyścigu AI. „NATO musi rozwiązać ten problem, równocześnie zapewniając poszanowanie naszych wartości” – ocenił gen. bryg. Mariusz Chmielewski. 

Zgodził się z tym Adam Dzwonkowski. Reprezentant Microsoftu dodał, że w zachodnim kręgu kulturowym staramy się nie przekraczać postawionych barier. „U nas etyka AI jest fundamentem” – przekazał, odnosząc się do praktyk jego firmy. 

Po drugiej stronie są podmioty, które nie mają z tym problemu, a to generuje wyzwania, z jakimi musimy sobie poradzić. „Być może nasze modele będą mniej skuteczne niż twórców, którzy nie mają żadnych ograniczeń” – stwierdził dr hab. inż. Szymon Łukasik z NASK.

Czytaj też

Ingerencja w algorytm. „Życie lub śmierć”

Zastępca dowódcy polskich cyberwojsk uważa, że obecnie obserwujemy wojnę algorytmów. Po jednej stronie znajdują się ci, którzy je tworzą z myślą o działaniach ofensywnych, z drugiej są ci, którzy opracowują rozwiązania w celu ochrony. 

Gen. bryg. Mariusz Chmielewski wskazał, że siły zbrojne zaawansowanych technologicznie państw analizują ryzyka związane z użyciem AI w ich strukturach. Czynią inwestycje w wiedzę, ludzi oraz firmy zajmujące się problemami zaburzania działania/ uczenia sztucznej inteligencji

Warto zastanowić się, czy jesteśmy w stanie zaburzać jej (AI – red.) działanie.
Gen. bryg. Mariusz Chmielewski, zastępca dowódcy DKWOC

Generał podkreślił, że „z założenia” zadaniem wojska jest „psucie”. Należy to rozumieć jako utrudnienie lub uniemożliwienie wrogowi sięgnięcie po dane rozwiązanie lub wykonanie określonej czynności. To założenie ma zastosowanie również w przypadku technologii sztucznej inteligencji. „Jeśli ktoś coś buduje (w kontekście AI i nie tylko – red.), musi powstać kontrpropozycja, polegająca na »popsuciu« powstającej rzeczy” – wyjaśnił reprezentant DKWOC. 

Adam Dzwonkowski z Microsoftu wskazał, że na świecie „jest wielu takich, którzy potrafią ingerować w algorytmy, modyfikować je”, stosując różnorodne metody. Przywołał tutaj przykład działań szpiegowskich. Agenci potrafią dotrzeć do osób pracujących nad określonymi modelami i zyskać do nich dostęp. „Wystarczy odrobinę je zaburzyć i wynik może być zupełnie inny. To szczególnie istotne w przypadku wojska, bo tam ewentualna zmiana może decydować o życiu lub śmierci” – stwierdził przedstawiciel technologicznego giganta. 

W cyberprzestrzeni pole bitwy jest wszędzie.
Adam Dzwonkowski, Defense & Intelligence Technology Lead, Microsoft

Do tego interesujący wątek dodał dr hab. inż. Szymon Łukasik. Przedstawiciel NASK zwrócił uwagę, że niekiedy wystarczy fizycznie zmylić algorytm. „Można np. coś nakleić na znaku drogowym i to już stwarza ryzyko, gdy mówimy o autonomicznych pojazdach” – zaznaczył specjalista. Błędnie odczytany lub zupełnie pominięty sygnał przez technologię AI generuje zagrożenie dla użytkowników i osób trzecich. 

„W związku z tym, musimy uwzględniać i budować »hamulce bezpieczeństwa«, które uchronią nas przed ryzykiem” – uważa kierownik pionu sztucznej inteligencji NASK.

Czytaj też

Sztuczna inteligencja sprawdzi się w wojsku

Sztuczna inteligencja odmieni wiele dziedzin naszego życia oraz funkcjonowania państwa. Obejmie to także – a może i przede wszystkim – siły zbrojne. Wynika to z faktu, że obronność i bezpieczeństwo to sektory, gdzie technologie AI znajdą swoje zastosowanie. Już teraz można wskazać na np. narzędzia analizy i rozpoznania, które sprawdzają się w nadzorowaniu granic państwowych. 

„Rozwój społeczeństw pokazuje, że ludzie nie chcą uczestniczyć w konfliktach, więc naturalne jest, że wojsko będzie czerpać ze zdobyczy technologii, aby te braki wyrównać” – stwierdził gen. bryg. Mariusz Chmielewski. 

My (jako wojsko – red.) patrzymy na sztuczną inteligencję jako na narzędzie. Idealnie wspiera procesy.
Gen. bryg. Mariusz Chmielewski, zastępca dowódcy DKWOC

Czytaj też

Cyberbezpieczeństwo i cyberataki

Sztuczna inteligencja daje szerokie możliwości w zakresie cyberbezpieczeństwa. „Bez AI wiele rozwiązań nie byłoby w stanie spełniać oczekiwań” – podkreśliła Jolanta Malak, regionalna dyrektor sprzedaży Fortinet. 

Obecnie liczba cyberataków tak się zwiększyła, że specjaliści nie są w stanie ich obsługiwać ze względu na ludzkie ograniczenia. Dlatego tu potencjał uczenia maszynowego i sztucznej inteligencji idealnie się sprawdza. W efekcie wysiłki ekspertów SOC (Security Operation Center) są skrócone z kilku godzin do minut, a nawet sekund. 

Jak zaznaczyła przedstawicielka Fortinet, musimy jednak pamiętać, że z nowoczesnych technologii korzystają także atakujący. W związku z tym, ich działania są coraz bardziej wyrafinowane, złożone, a przez to zapewnienie cyberbezpieczeństwa staje się trudniejszym wyzwaniem.

Czytaj też

Cyber24 DAY
Partnerzy Cyber24 DAY
Autor. CyberDefence24

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama