Armia i Służby
Etyczna sztuczna inteligencja na polu bitwy? Amerykańskie wojsko uważa, że to możliwe
Twórcy sztucznej inteligencji (AI) ponoszą moralną i prawną odpowiedzialność za jej działania – wskazują amerykańscy specjaliści. Pomimo nacisku ekspertów, Departament Obrony USA chce podjąć wyzwanie i realizować swój plan wdrażania innowacji do struktur U.S. Army. Czy operacje wojskowe prowadzone w ten sposób będą etyczne? – pyta serwis Breaking Defense.
„Ludzie powinni zachować odpowiedni poziom kontroli oraz być odpowiedzialni za rozwój, rozmieszczenie, wykorzystanie i skutki działania sztucznej inteligencji w wojsku” – tak brzmi pierwsza zasada „etyki wojskowej AI” wygłoszona przez Defense Innovation Advisory Board. Cztery kolejne wskazują, że sztuczna inteligencja musi być niezawodna, kontrolowana, neutralna oraz zdolna do podejmowania decyzji w sposób, który ludzie będą w stanie zrozumieć. Mówiąc inaczej, AI nie może być „czarną skrzynką” skomplikowanej matematyki, która prowadzi czynności kompletnie nieznanych dla człowieka.
Pentagon nie planuje wdrożenia sztucznej inteligencji, aby wyeliminować czynnik ludzki z pola działań. „Naszym celem jest nie tyle sama walka, co systemy walki” – podkreślił Michael McQuade, ekspert Carnegie Mellon University.
Jak wskazuje Breaking Defense, obecnie w większości sytuacji prowadzenie czynności wojskowych podczas konfliktu wymaga „pociągnięcia za spust przez człowieka, nawet jeśli roboty zdefiniują cel i namierzą żądany obiekt”. Jednak amerykańskie wojsko jest również zainteresowane „niebojowym” zastosowaniem sztucznej inteligencji – od zarządzania personelem po specjalistyczną analizę wywiadowczą.
Taki stan rzeczy prowadzi do jednego wniosku: kiedy AI zawodzi i powoduje szkody, w tym śmierć cywili, nie można jej za to obwiniać. Ludzie, którzy stworzyli roboty oraz inne urządzenia, bazujące na innowacyjnych technologiach, ponoszą moralną i prawną odpowiedzialność za ich działania.
„Tylko dlatego, że sztuczna inteligencja jest nowa jako technologia, nie znosi odpowiedzialności z ludzi” – zaznaczył Michael McQuade. – „Wszystko, co nowego w kwestii AI nie oznacza, że człowiek nie jest za nią odpowiedzialny. Na pewno nie możemy mówić: No trudno… Ta maszyna się zepsuła”.
Etyczne kontrolowanie?
Według serwisu Breaking Defense twierdzenie, że ludzie mogą etycznie wykorzystywać sztuczną inteligencję podczas konfliktu zbrojnego samo w sobie jest kontrowersyjne. Działacze na rzecz praw człowieka, w tym na przykład przedstawiciele kampanii „Stop Killer Robots”, są głęboko sceptyczni wobec wszelkich militarnych zastosowań AI. Wybitni uczeni, jak Stephen Hawking czy Elon Musk, ostrzegali, że nawet cywilna sztuczna inteligencja może wymknąć się spod ludzkiej kontroli i generować ogromne zagrożenie.
Z kolei Defense Innovation Board uważa, że wojsko USA posiada długą historię korzystania z innowacyjnych technologii w sposób etyczny, nawet w trakcie operacji wojskowych. Doświadczenie to z pewnością przełoży się na wykorzystanie sztucznej inteligencji. „Pentagon posiada ogromną historię, potencjał oraz kulturę w zakresie prowadzenia skomplikowanych, niebezpiecznych operacji” – zaznaczył Michael McQuade.
„Ma również zasady etyczne” – dodał członek zarządu Milo Medlin, Eric Schmidt. Według specjalisty Pentagon posiada „wyspecjalizowany proces inżynieryjny” oraz „regularne przeglądy sprzętu po operacji”, aby zapobiec ewentualnemu uszkodzeniu broni. „Wojsko USA bardzo dobrze radzi sobie z minimalizacją szkód w sprzęcie” – wskazał ekspert. – „Dlatego w ramach Pentagonu wykształciła się potrzeba upewnienia się, że wszystkie systemy są w pełni sprawne. To podejście dotyczyć będzie również sztucznej inteligencji”.
„Naszym celem jest ugruntowanie zasad w wieloletnich ramach etycznych DoD” – podkreślił Defense Innovation Board w specjalnym oświadczeniu. – „Niepewność związana z niezamierzonymi konsekwencjami nie dotyczy wyłącznie AI. Sytuacja obejmuje również inne dziedziny technologii. Na przykład amerykańskie okręty wojenne napędzane energią jądrową bezpiecznie pływały przez ponad pięć dekad bez jednego wypadku w reaktorze lub uwolnienia radioaktywności, która zaszkodziłaby zdrowiu ludzkiemu lub środowisku”.
Pięć zasad, 12 zaleceń
Zalecenia wydane przez Defense Innovation Board nie posiadają mocy wiążącej dla Departamentu Obrony, jednak mimo to Pentagon poprosił o ich przedstawienie. Według treści zamieszczonej w dokumencie użycie sztucznej inteligencji przez DoD powinno być:
- odpowiedzialne – ludzie powinni ponosić odpowiedzialność za rozwój oraz skutki działań sztucznej inteligencji w ramach wojska. W myśl tej zasady, za wszelkie wypadki i okrucieństwa związane z funkcjonowaniem AI, odpowiada jej twórca oraz operator. To samo dotyczy innych dziedzin. Na przykład robotów, które zaaplikowały pacjentowi zły lek, w wyniku czego zmarł.
- ostrożne – Departament Obrony powinien podjąć właściwe kroki w celu uniknięcia niezamierzonego błędu lub niedopatrzenia podczas opracowywania, a następnie wdrażania sztucznej inteligencji do operacji wojskowych, aby zapobiec sytuacji, w której robot nieumyślnie wyrządza szkodę ludziom. „Jedną z nieodłącznych słabości współczesnej sztucznej inteligencji jest to, że uczy się ona przez gromadzenie ogromnej ilości danych. Jeśli zebrane informacje okażą się błędne lub w jakiś sposób stronnicze, algorytm po prostu wyemituje błąd” – wskazuje Defense Innovation Board w rekomendacjach dla DoD.
- zrozumiałe – inżynieria sztucznej inteligencji DoD powinna być na tyle zaawansowana, aby specjaliści byli w stanie zrozumieć procesy tej technologii, a następnie je kontrolować. „Uczenie maszynowe opiera się na niezwykle złożonych algorytmach matematycznych, które modyfikują się i mutują podczas nauki. Powstała masa kodu jest często niezrozumiała nawet dla ludzi, którzy go napisali” – mówi treść dokumentu.
- niezawodne – systemy DoD AI powinny mieć wyraźną, dobrze zdefiniowaną domenę użytkowania, a bezpieczeństwo, ochrona i odporność takich systemów musi być regularnie testowana. Wynika to z faktu, że oprogramowanie przeznaczone do uczenia maszynowego jest bardzo złożone i stale podlega modyfikacjom.
- adekwatne do zamiarów – sztuczna inteligencja powinna być zaprojektowana i stworzona w taki sposób, aby w pełni spełniała swoją docelową funkcję, a równocześnie posiadała zdolność do wykrywania oraz unikania niezamierzonych szkód lub zakłóceń. W tym sensie AI powinna posiadać zdolność do „samodzielnego diagnozowania, wykrywania nieprawidłowości i dezaktywacji wszystkiego, co powoduje problem”.
Czytaj też: Amerykańska armia sięga po "JEDI"