Reklama
  • ANALIZA
  • WIADOMOŚCI
  • WAŻNE

#CyberMagazyn: Pentagon wchodzi w epokę wojny autonomicznej

Amerykańska debata o przyszłości wojny coraz mniej przypomina klasyczny spór o liczbę okrętów, samolotów, czołgów czy dywizji. W jej centrum pojawia się dziś pytanie znacznie głębsze: kto będzie realnie zarządzał polem walki — człowiek, maszyna czy system. Pentagon powołał specjalną strukturę i zarezerwował miliardy dolarów, aby opanować technologię przyszłości.

wojsko USA robot AI
Pentagon wykłada miliardy dolarów, aby zbudować przewagę.
Autor. CyberDefence24/Canva

Najnowszy projekt budżetu obronnego USA na rok fiskalny 2027 pokazuje, że Pentagon nie traktuje już autonomii jako dodatku do tradycyjnej siły zbrojnej, lecz jeden z fundamentów przyszłej przewagi wojskowej.

Reklama

Miliardy dolarów na autonomiczne zdolności

Jak pisze agencja Reutera, projekt budżetu zakłada rekordowe wydatki obronne, w tym ogromny wzrost finansowania technologii dronowych, sztucznej inteligencji, infrastruktury danych i autonomicznych systemów bojowych. 

Najbardziej wymownym symbolem tej zmiany jest Defense Autonomous Warfare Group, czyli Grupa ds. Autonomicznych Zdolności Bojowych, określana skrótem DAWG. Jej finansowanie ma wzrosnąć z ok. 225 mln dolarów do ok. 54 mld dolarów.

DAWG ma przejąć funkcje wcześniejszej inicjatywy Replicator, której celem było szybkie wprowadzenie tanich, licznych i możliwych do utraty systemów bezzałogowych. 

Taka skala wzrostu nie jest zwykłą korektą budżetową. To sygnał, że autonomia przestaje być eksperymentem technologicznym, a zaczyna być traktowana jako osobna oś organizowania amerykańskiej siły wojskowej. 

Oficjalna narracja Pentagonu idzie jeszcze dalej. Departamentu Wojny Stanów Zjednoczonych wskazuje, że projekt budżetu przewiduje ponad 74 mld dolarów na technologie dronowe i przeciwdronowe, co ma oznaczać największą inwestycję w ten sektor w historii amerykańskiego resortu obrony. 

W tym samym komunikacie podkreślono, że budżet ma odbudować i rozszerzyć bazę przemysłową, przyspieszyć zakup nowych zdolności oraz zwiększyć gotowość USA do działania w środowisku obejmującym ląd, morze, powietrze, przestrzeń kosmiczną i cyberprzestrzeń, w której planuje się zainwestowanie 20 mld. dolarów.

Zmiana logiki wojny. Pentagon zmienia kurs

Nie chodzi więc tylko o to, że USA chcą kupić więcej dronów. Chodzi o zmianę logiki wojny. 

Klasyczny model opierał się na drogich, złożonych i często załogowych platformach: samolotach wielozadaniowych, okrętach, systemach rakietowych, satelitach, centrach dowodzenia. 

Model, który wyłania się z projektu DAWG, opiera się na masie, rozproszeniu, niskim koszcie jednostkowym, szybkiej wymianie sprzętu, aktualizacji oprogramowania i zdolności do działania w rojach. 

Reklama

Amerykanie wyciągają wnioski z ostatnich wojen

Jak pisze DefenseScoop, administracja w Waszyngtonie planuje przeznaczyć ponad 70 mld dolarów na drony i systemy przeciwdronowe, co ma być największym takim pakietem inwestycyjnym w historii Pentagonu

Źródłem tej zmiany są doświadczenia ostatnich wojen. Ukraina pokazała, że tanie drony mogą niszczyć kosztowne systemy, korygować ogień artylerii, prowadzić rozpoznanie, wymuszać zmianę taktyki i skracać czas między wykryciem celu a jego rażeniem. 

Konflikty na Bliskim Wschodzie, w tym działania wokół Iranu, pokazały natomiast znaczenie systemów przeciwdronowych, obrony powietrznej, amunicji krążącej i zdolności do odpierania masowych ataków bezzałogowych. 

Według Associated Press, amerykański projekt budżetu przewiduje istotny wzrost wydatków na drony, systemy przeciwdronowe, rakiety i obronę powietrzną, właśnie dlatego, że te zdolności stały się centralne w aktualnych konfliktach. 

Amerykańskie laboratorium przyszłej wojny

W tym sensie DAWG jest odpowiedzią na problem, którego nie rozwiąże już tradycyjna biurokracja zakupowa. Wojna dronowa rozwija się szybciej niż klasyczne cykle zamówień wojskowych. 

Sprzęt, który dziś działa skutecznie, za kilka miesięcy może być przestarzały z powodu nowych środków walki elektronicznej, nowych algorytmów naprowadzania albo nowych metod kamuflażu. Dlatego prawdziwą wartością nie jest pojedyncza platforma, lecz zdolność do stałego uczenia się, szybkiego testowania, masowej produkcji i natychmiastowego wprowadzania poprawek. 

Jak pisze Breaking Defense, Pentagon opisuje DAWG jako strukturę, która ma działać bardziej jak „pathfinder” — ośrodek poszukiwania, testowania i integrowania rozwiązań — niż klasyczny program zakupowy jednego rodzaju sił zbrojnych. 

To bardzo ważne rozróżnienie. W pierwotnych komentarzach pojawiła się bowiem teza, że DAWG może stać się zalążkiem nowego, zunifikowanego dowództwa bojowego. The Cipher Brief pisze, że skala finansowania i ambicja programu mogą sugerować głębszą instytucjonalną zmianę w amerykańskim sposobie prowadzenia wojny

Trzeba jednak zachować ostrożność: publicznie dostępne źródła potwierdzają ogromny wzrost finansowania, rolę integracyjną DAWG i przejęcie funkcji Replicatora, ale nie potwierdzają jeszcze formalnie, że DAWG stała się pełnoprawnym unified combatant command na wzór U.S. Cyber Command czy U.S. Space Command. 

Z tej racji można więc powiedzieć, że DAWG jest dziś instytucjonalnym laboratorium przyszłej wojny. Nie jest jeszcze samodzielnym dowództwem strategicznym, ale może pełnić funkcję ośrodka, który zmienia sposób myślenia o dowodzeniu, logistyce, produkcji i użyciu siły. 

Reklama

AI nie tylko do walki z Rosją czy Chinami

komunikacie U.S. Southern Command czytamy, że dowództwo południowe USA utworzyło własną strukturę — SOUTHCOM Autonomous Warfare Command — która ma wykorzystywać platformy autonomiczne, półautonomiczne i bezzałogowe do zwalczania zagrożeń w regionie, w tym sieci narkoterrorystycznych i kartelowych. W jej rowijanie ma być zaangażowane m.in. DAWG. 

To pokazuje, że autonomia zaczyna schodzić z poziomu dokumentów strategicznych do konkretnych dowództwgeograficznych. 

Jeżeli SOUTHCOM traktuje autonomię jako narzędzie walki z kartelami, reagowania kryzysowego, rozpoznania i współpracy z partnerami regionalnymi, to znaczy, że Pentagon nie widzi tych technologii wyłącznie w scenariuszu wojny z Chinami czy Rosją

Autonomia ma być użyteczna również w działaniach poniżej progu wojny, w operacjach granicznych, antynarkotykowych, rozpoznawczych, logistycznych i stabilizacyjnych. To zaś rodzi pytania nie tylko o skuteczność, lecz także nadzór, odpowiedzialność i ryzyko rozmycia granicy między wojną, bezpieczeństwem wewnętrznym i operacjami policyjno-wojskowymi.

Potrzeby wojska w zderzeniu z... demokracją

Jeszcze głębsza zmiana dotyczy relacji między platformą a oprogramowaniem. Dron sam w sobie nie jest rewolucją. Rewolucją jest system, który potrafi jednocześnie zbierać dane, analizować obraz, rozpoznawać wzorce, omijać zakłócenia, koordynować wiele platform i proponować operatorowi optymalny sposób działania. 

Jak pisze Defense One, Pentagon szuka rozwiązań pozwalających integrować wiele autonomicznych platform i podporządkowywać je ludzkiej decyzji albo przynajmniej ludzkiej ocenie. Oznacza to przejście od ręcznego sterowania pojedynczym dronem do zarządzania całym rojem i efektem operacyjnym. 

I w tym miejscu pojawia się najważniejsze napięcie: Pentagon potrzebuje szybkości, elastyczności i autonomii, ale z drugiej strony tzw. demokracja liberalna potrzebuje kontroli, odpowiedzialności i jasnych granic użycia siły.

Im bardziej decyzja bojowa zostaje przeniesiona do systemu algorytmicznego, tym trudniej wskazać, kto odpowiada za błąd: operator, dowódca, programista, producent modelu, dostawca danych, a może instytucja, która dopuściła system do użycia. 

Według agencji Reutera, rozmowy w Genewie dotyczące śmiercionośnych autonomicznych systemów broni pokazują, że wiele państw uważa obecne prawo za niewystarczając, choć USA i Rosja sprzeciwiają się nowym wiążącym regulacjom, argumentując, że obecne prawo międzynarodowe już wystarcza.

Reklama

Spór państwa z biznesem

Spór o systemy autonomiczne nie toczy się jednak wyłącznie między państwami. Coraz wyraźniej staje się również konfliktem między rządem a prywatnymi firmami technologicznymi. 

Najlepszym przykładem jest sprawa Anthropic. Firma w komunikacie deklaruje gotowość do wspierania legalnych zastosowań AI w bezpieczeństwie narodowym, ale utrzymuje dwie granice: sprzeciw wobec masowej krajowej inwigilacji Amerykanów oraz sprzeciw wobec użycia obecnych modeli frontier AI w pełni autonomicznych systemach broni. 

Według przedsiębiorstwa, dzisiejsze modele nie są wystarczająco niezawodne, aby powierzać im decyzje mogące prowadzić do śmierci ludzi. 

Tej sytuacji nie należy rozpatrywać jako sporu biznesowego związanego z kontraktem, lecz jako bardziej złożonego problemu kto będzie ustalał etyczne i techniczne granice wojny algorytmicznej

Państwo może twierdzić, że skoro działa w imię bezpieczeństwa narodowego, to prywatna firma nie powinna ograniczać jego legalnych operacji. Przedsiębiorstwo może odpowiadać, że dostarcza technologię o potencjalnie strategicznym i śmiercionośnym zastosowaniu, więc ma prawo odmówić udziału w określonych typach działań. 

Jak pisze Associated Press, Anthropic argumentowała w sporze sądowym, że nie może już kontrolować ani zmieniać działania Claude’a po wdrożeniu modelu w niejawnych sieciach Pentagonu, co dodatkowo komplikuje kwestię odpowiedzialności. 

Claude to rodzina zaawansowanych modeli sztucznej inteligencji opracowanych przez firmę Anthropic. Nie jest to zwykły program komputerowy, lecz system AI zdolny do analizy dużych zbiorów tekstu, streszczania dokumentów, wspierania pracy analitycznej, programowania, rozumowania i przetwarzania informacji w języku naturalnym. 

W kontekście sporu z Pentagonem znaczenie Claude’a polegało na tym, że model mógłby zostać wykorzystany w obszarach związanych z bezpieczeństwem narodowym: analizie danych wywiadowczych, planowaniu operacyjnym, cyberbezpieczeństwie, symulacjach albo wsparciu procesów decyzyjnych. 

Anthropic obawiał się jednak, że po wdrożeniu modelu w niejawnym środowisku wojskowym firma utraciłaby realną kontrolę nad tym, do jakich konkretnie zadań Claude jest używany. Dlatego spór nie dotyczył samej technologii, lecz granic jej wykorzystania — zwłaszcza ryzyka użycia AI w masowej inwigilacji lub w systemach broni działających bez wystarczającego udziału człowieka.

Pentagon staje się zależny od firm

Jednocześnie inne firmy technologiczne wchodzą głębiej w relacje z Pentagonem.

Jak informowaliśmy,  Google zgodził się udostępnić swoje modele sztucznej inteligencji do pracy w niejawnych systemach Pentagonu, dołączając do OpenAI i xAI. Umowa formalnie wyklucza użycie AI do masowej inwigilacji krajowej oraz autonomicznej broni bez ludzkiego nadzoru, ale jednocześnie nie daje firmie prawa weta wobec legalnych decyzji operacyjnych rządu. 

Sprawa pokazuje rosnącą zależność Pentagonu od prywatnych firm AI oraz napięcie między potrzebami bezpieczeństwa narodowego a ograniczeniami etycznymi narzucanymi przez twórców modeli.

W ten sposób wojna autonomiczna staje się także wojną o infrastrukturę prywatną: modele językowe, chmurę obliczeniową, dane treningowe, systemy cyberbezpieczeństwa, narzędzia symulacyjne i algorytmy koordynacji rojów. 

Państwo nie posiada już całego łańcucha technologicznego. Musi go współtworzyć z firmami, które mają własne interesy, własną reputację, własnych pracowników i własne ograniczenia etyczne. 

Według The Washington Post, część pracowników Google sprzeciwiała się pracy nad niejawnymi projektami AI dla Pentagonu, obawiając się powrotu do sporów znanych z wcześniejszego Projektu Maven. 

Reklama

Wojsko USA szuka sposób zyskania przewagi

W szerszej perspektywie DAWG pokazuje więc trzy równoległe przesunięcia. 

Pierwsze ma charakter wojskowy: USA przechodzą od modelu przewagi opartej na nielicznych, drogich platformach do modelu, w którym liczy się masa tanich systemów, szybkość adaptacji i integracja danych. 

Drugie ma charakter instytucjonalny: Pentagon próbuje skrócić dystans między laboratorium, przemysłem i polem walki.

Trzecie ma charakter polityczno-etyczny: autonomia wymusza nowe pytania o kontrolę człowieka, odpowiedzialność za błąd i dopuszczalne granice użycia sztucznej inteligencji w operacjach wojskowych.

Amerykanie chcą opanować technologię

Największe ryzyko polega na tym, że tempo technologii wyprzedzi tempo doktryny

Jak pisze The Guardian, krytycy ostrzegają, że amerykańskie siły zbrojne i firmy AI mogą nie być jeszcze gotowe na etyczne, strategiczne i operacyjne konsekwencje masowego użycia systemów autonomicznych. 

Problemem nie jest tylko to, czy drony będą działać, lecz to, czy dowódcy będą rozumieli ich ograniczenia; czy systemy będą odporne na manipulację; czy będą testowane w realistycznych warunkach i czy politycy będą w stanie kontrolować tempo eskalacji. 

Z tej racji należy postrzegać DAWG jest czymś więcej niż nową pozycją budżetową. Jest testem zdolności amerykańskiego państwa do opanowania technologii, która sama w sobie zmienia naturę siły. 

Jeśli Pentagon zdoła połączyć masową produkcję, dobrą doktrynę, kontrolę człowieka, sprawny nadzór Kongresu i odpowiedzialne użycie sztucznej inteligencji, DAWG może stać się jednym z filarów amerykańskiej przewagi w XXI wieku.

 Jeśli jednak powstanie tylko ogromny fundusz na efektowne demonstratory, bez jasnych zasad użycia, odporności na błędy i realnej odpowiedzialności, USA mogą więc zbudować system bardzo szybki, bardzo kosztowny i bardzo niebezpieczny. 

Równocześnie należy pamiętać, że DAWG nie oznacza jeszcze, iż maszyny przejmą stery wojny, ale że Pentagon zaczyna organizować przyszłe pole walki tak, jakby bez maszyn nie dało się już utrzymać przewagi. I właśnie w tym tkwi najważniejsza stawka tej debaty: nie w samych dronach, lecz w tym, czy człowiek pozostanie podmiotem decyzji, czy stanie się jedynie nadzorcą systemu, którego szybkości, złożoności i skutków nie będzie już w pełni rozumiał.

Reklama

Zobacz również

CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Krajowy system e-Faktur - co musisz wiedzieć o KSEF?

YouTube cover video
Materiał sponsorowany