Reklama

Armia i Służby

#CyberMagazyn: Sztuczna inteligencja na polu bitwy. Kto odpowie za błędy?

Autor. Specna Arms / Unsplash

Sztuczna inteligencja coraz częściej wykorzystywana jest w wojsku. W ostatnim czasie - za sprawą Izraela - głośno zrobiło się o jej zastosowaniach do zautomatyzowanego podejmowania decyzji na polu bitwy. Kto będzie odpowiedzialny za błędy algorytmów?

Reklama

O tym, w jaki sposób Izrael wykorzystuje sztuczną inteligencję w swoich operacjach wojskowych, pisaliśmy na łamach CyberDefence24.pl w tym tekście .

Reklama

Algorytmy w izraelskim wojsku używane są m.in. do wyznaczania celów uderzeń z powietrza i organizacji wojskowej logistyki. Armia tłumaczy to wzrostem wydajności podejmowanych działań i eskalacją napięć na spornych terytoriach, a także niepokojem związanym z aktywnością Iranu. Niewiele wiemy o tym, jak dokładnie Izrael wykorzystuje sztuczną inteligencję - to, co jednak opisaliśmy w naszym tekście, dotyczy m.in. procesów podejmowania decyzji przez sztuczną inteligencję odnośnie wyboru celów ataków z powietrza.

Jak sztuczna inteligencja zmieni pole bitwy?

Magazyn „MIT Technology Review" pokazuje, jak algorytmy sztucznej inteligencji i systemy na nich oparte mogą zmienić pole bitwy - ukazując możliwości, o których nie dowiemy się z lektury artykułów na temat już istniejących zastosowań tego rodzaju narzędzi w armiach świata. Szczegóły ich użytkowania są owiane tajemnicą - co ma swoje powody zarówno po stronie taktycznej, jak i etycznej.

Reklama

Tymczasem, jak czytamy, systemy wojskowe wspomagające żołnierzy podczas konfliktu mogą występować w kilku rodzajach. Jeden z nich to narzędzia służące do usprawniania działań podejmowanych przez człowieka - w wyniku jego samodzielnych decyzji, które zapadają na poziomie relacji żołnierz-dowódca. Tu narzędzia cyfrowe jedynie pomagają np. zwiększyć widoczność celu lub analizują dane, które wcześniej zostały zadane przez żołnierzy. Rozpoznawanie obrazów - jedna z bardziej kontrowersyjnych w zastosowaniach wojskowych technologii - jest używane ściśle pod nadzorem człowieka i to człowiek ostatecznie decyduje o tym, czy np. pociągnąć za spust i oddać strzał, lub wydać decyzję o przeprowadzeniu ataku z powietrza.

Drugi rodzaj zastosowań sztucznej inteligencji osobom, które nie śledzą na bieżąco informacji o rozwoju techniki wojskowej może wydawać się abstrakcją. W niedalekiej zdaniem „MIT Technology Review" przyszłości może być tak, że podczas konfliktu działania decyzyjne będą odbywały się na monitorach, na które będą spoglądać dowódcy. Czatboty informacyjne będą na bieżąco dostarczać im danych na temat rozwoju sytuacji, budowanych przez wiele urządzeń gromadzących na bieżąco informacje - jak np. satelity czy pojazdy bezzałogowe. Technologia będzie też odpowiedzialna za doradzanie dowódcom, jakie cele wybrać i jaki rodzaj technologii wykorzystać do ich neutralizacji - dostarczając od razu kalkulacje prawdopodobieństwa zakończenia takiej operacji powodzeniem. Słowem - to rzeczywistość rodem z gier komputerowych, która według magazynu słynnej uczelni już wkrótce może stać się udziałem naszego doświadczenia.

Technologie te będą przy tym na tyle dobrze wyszkolone, aby móc z pewnością określić, iż wybierane przez nie cele uderzeń nie są infrastrukturą cywilną. To dziś jedna z najsilniejszych obaw towarzyszących wdrożeniu technologii autonomicznego podejmowania decyzji na polu bitwy.

Systemy te oczywiście w koncepcji MIT są zawsze kontrolowane przez człowieka - podobnie jak drony, które mają wykonać ich decyzje. Rolą człowieka jest także zatwierdzenie wyboru celu i ostateczne podjęcie decyzji o tym czy wykonać sugerowany przez algorytmy rozkaz ostrzału. Odpowiedzialność więc spada ostatecznie na dowódcę - nawet, jeśli dokonuje on jedynie zatwierdzenia decyzji maszyny.

Kto odpowie za błędy sztucznej inteligencji?

Kwestie dopuszczenia stosowania systemów autonomicznych na polu bitwy są od wielu lat tematem debaty politycznej i etycznej. W maju tego roku doszło - po dekadzie rozmów - do konsensusu, jeśli chodzi o zapisy Konwencji ONZ o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych. Choć nie wiąże się ona bezpośrednio z tematem popularnych „zabójczych robotów", to istotnym zapisem w niej jest ten o konieczności zachowania udziału człowieka w procesie podejmowania decyzji, które prowadzą do śmierci innych ludzi. Okazuje się, że nie w pełni autonomiczna broń jest największym zagrożeniem - ale systemy, które mogą nadawać pewien stopień autonomii broni całkiem konwencjonalnej.

Broń w pełni autonomiczna, inteligentna, jest jednak kolejnym problemem , z którym przyjdzie nam się zmierzyć - bo jest niemal pewne, że w następnych latach będzie odgrywać coraz poważniejszą rolę w konfliktach - a tych na świecie nie brakuje.

Systemy pozwalające na całkowicie zautomatyzowane podejmowanie decyzji według magazynu MIT cieszą się rosnącą popularnością, a ich rozwój następuje z dala od mediów i wiedzy opinii publicznej. Jest jednak ciągły, a broń tego typu staje się coraz bardziej skomplikowana i zaawansowana.

Wszystko przez algorytmy uczenia maszynowego, które przetwarzają ogromne ilości danych i w wojsku znajdują zastosowanie właśnie w procesach decyzyjnych. Jednym z najsłynniejszych, a zarazem owianych tajemnicą projektów obejmujących rozwój tej technologii dla armii był zapoczątkowany w 2017 r. przez Pentagon i Google Project Maven. Budził on ogromny sprzeciw pracowników koncernu, który swego czasu miał „don't be evil" (nie bądź złym) jako motto. W wyniku badań towarzyszących projektowi stwierdzono, że sztuczna inteligencja jest zdolna do rozpoznawania obrazów niemal na tym samym poziomie, co człowiek. Pod listem protestacyjnym związanym z możliwymi konsekwencjami rozwoju tego projektu podpisało się ponad 3 tys. pracowników firmy, obawiających się konsekwencji wykorzystania technologii właśnie m.in. w procesach automatyzacji działań na polu bitwy.

Rosja i Ukraina

„MIT Technology Review" pisze, że z systemów wyposażonych w algorytmy sztucznej inteligencji korzystają obie strony konfliktu trwającego za polską wschodnią granicą.

Ukraina korzysta z systemu znanego jako GIS Arta, który przyporządkowuje rosyjskie cele do jednostek artylerii, z których oddanie strzału będzie najbardziej efektywne. Przez zachodnie media został on opisany jako podobny do tego, który zestawia samochody Ubera z poszukującymi przejazdu pasażerami. Cały proces zajmuje podobno minutę.

Rosja z kolei twierdzi, że ma samodzielnie opracowaną bitewną sztuczną inteligencję, która służy do wsparcia dowodzenia na polu bitwy. Tu jednak nie mamy wiedzy o żadnych szczegółach dotyczących tego projektu. Nie wiemy też, czy w rzeczywistości chodzi o sztuczną inteligencję, czy też po prostu o oprogramowanie wspierające działania armii - a Rosja w celach propagandowych niejednokrotnie już przechwalała się różnymi możliwościami, które jednak mijały się z rzeczywistością.

Rozeznanie

Systemy sztucznej inteligencji dla wojska budowane są przez człowieka - są zatem obciążone błędami, jak każde usługi cyfrowe. Zasadne wydaje się zatem postawienie pytania, skąd człowiek posiłkujący się poradami od algorytmów ma wiedzieć, że ich wskazania są dobre? Że nie są obciążone wadami, które doprowadzą np. do śmierci niewinnych cywilów?

MIT zwraca uwagę, że sytuacja konfliktu owocuje napięciami tak dużymi, że często może nie być dostatecznie dużo czasu, by należycie przeanalizować każdą odpowiedź sztucznej inteligencji i każde jej wskazanie.

Amerykańskie ministerstwo obrony twierdzi, że odpowiedzią na te i inne trudne pytania o broń autonomiczną mają być wytyczne dotyczące etyki dla sztucznej inteligencji. Według nich, to do człowieka należy zawsze ostateczna decyzja - przy założeniu, że ma czas i zasoby na dokonanie analizy.

Wojna odczłowiecza - pytanie jednak, czy wojna prowadzona przy użyciu sztucznej inteligencji nie doprowadzi do całkowitej dehumanizacji konfliktu oraz jego uczestników. To fundamentalna kwestia, która musi stać się podstawą dla refleksji o roli broni autonomicznej i systemów wspierających decyzje na polu bitwy. Bez jej rozstrzygnięcia żadne prace nad tego rodzaju zastosowaniami AI nie powinny być kontynuowane - choć doskonale wiemy, że to jedynie pobożne życzenia.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze (1)

  1. WaldK

    dobrze sie slucha rozawazan o etyce na polu bitwy, to jakby usmiech dziecka. rosjanie nie maja takich problemow, jak wala to jak i gdzie popadnie, swoi i obcy rowno. przyjdainni, maja innych. no mieli ale przyzwyczajenia sa silniejsze. uwazam ze w sytuacji przegrywajacego to zrobi wszystko zby boronic siebie i/lub zwyciezyc. zapisy sie przyjma jak zwykle, w praktyce bedzie zaleznie od sytuacji.

Reklama