Armia i Służby
Pentagon: Człowiek ponosi odpowiedzialność za działania sztucznej inteligencji
Specjalistyczny organ Pentagonu Defense Innovation Board opracował wytyczne dotyczące etycznego wykorzystania sztucznej inteligencji w sektorze wojskowym. Dokument wyraźnie podkreśla, że to człowiek ponosi odpowiedzialność za działanie AI, zwłaszcza podczas operacji militarnych. Rekomendacje wkrótce zostaną wdrożone przez Departament Obrony USA.
Departament Obrony wkrótce przyjmie zestaw zasad dotyczących rozwoju i wykorzystania sztucznej inteligencji – informuje serwis Defense One. Projekt regulacji został wydany przez Defense Innovation Board (DIB) pod nazwą „Recommendations on the Ethical Use of Artificial Intelligence”.
„Departament Obrony jest na ostatnim etapie adaptacji zasad sztucznej inteligencji, które zostaną wdrożone w całej armii USA. Wkrótce zostaną ogłoszone dalsze szczegóły” – podkreślił Arlo Abrahamson, rzecznik Joint Artificial Intelligence Center.
Pentagon od lat prowadzi badania nad wojskowym zastosowaniem sztucznej inteligencji. Jak informowaliśmy wcześniej, Stany Zjednoczone chcą w niedalekiej przyszłości wykorzystać AI w ramach prowadzonych operacji, aby za jej pomocą uzyskać przewagę na polu bitwy. To wszystko sprawia, że sztuczna inteligencja jest obecnie kluczowym obszarem dla Departamentu Obrony.
Jako przykład można wskazać „Project Maven”, który jest wspólnym projektem pilotażowym Google oraz Departamentu Obrony USA. Przedsięwzięcie obejmuje przede wszystkim pracę nad wykorzystaniem AI do identyfikacji obiektów na obrazach rejestrowanych przez drony. Celem projektu jest wzmocnienie integracji big data i uczenia maszynowego w działaniach Pentagonu.
Wojskowe zastosowanie sztucznej inteligencji budzi kontrowersje związane z etyką prowadzonych operacji. Problemem jest również kwestia prawnego uregulowania odpowiedzialności za działanie zautomatyzowanych systemów. Defense Innovation Board zbadał sprawę, a wnioski zostały przedstawione w odrębnym dokumencie, którego założenia mają wkrótce zostać wdrożone przez Departament Obrony.
W projekcie zasad zwrócono uwagę na konieczność ludzkiej kontroli nad systemami sztucznej inteligencji. W dokumencie wyraźnie podkreślono, że to człowiek ponosi odpowiedzialność za działanie AI. „Ludzie powinni (…) być odpowiedzialni za rozwój, wdrożenie, wykorzystanie i wyniki systemów DoD AI” – czytamy w jego treści. Organ Pentagonu nie ma wątpliwości, że to ludzie muszą odpowiadać za decyzje podejmowane przez zautomatyzowane urządzenia, zwłaszcza jeśli chodzi o prowadzenie operacji militarnych. Prezentowany pogląd należy uznać za kluczowy w kontekście całego dokumentu, które może odmienić charakter operacji wojskowych prowadzonych w przyszłości.
Dodatkowo DIB zaleca, aby Departament Obrony polegał przede wszystkim na narzędziach i rozwiązaniach, które są przejrzyste. Jest to równoznaczne z tym, że ekspert techniczny powinien być w stanie bez problemów opisać proces realizowany przez sztuczną inteligencję. Specjaliści muszą rozumieć technologię, jej działanie, metody operacyjne oraz mechanizmy rozwoju, aby móc efektywnie kontrolować funkcjonowanie sztucznej inteligencji. W przypadku błędu, odpowiedzialność spadnie na konkretnego specjalistę, zarządzającego danym urządzeniem.
Co więcej, w projekcie wskazano również na konieczność prowadzenia regularnych testów rozwiązań bazujących na sztucznej inteligencji. „Systemy DoD AI powinny mieć wyraźną, dobrze zdefiniowaną domenę użytkowania, a bezpieczeństwo, niezawodność i odporność takich systemów powinna być testowana (…) przez cały ich cykl życia” – stwierdzono w dokumencie. Systematyczne testy pozwolą na eliminację potencjalnych nieprawidłowości w funkcjonowaniu urządzeń i pozwolą zredukować ryzyko wystąpienia zdarzeń niepożądanych.
Heather Roff, która uczestniczyła w przygotowaniu zaleceń DIB, zaznaczyła, że przyjęcie zasad przyniesie pozytywne skutki dla bezpieczeństwa narodowego USA. „Bardzo się cieszę, że Sekretarz Obrony Mark Esper przyjął zasady i je wdraża. W ten sposób zabezpiecza nasze bezpieczeństwo narodowe poprzez odpowiedzialne badania i innowacje w sztuczną inteligencję” – powiedziała specjalistka, cytowana przez Defense One.
Jak donosi serwis, prof. Rebecca Crootof, specjalizująca się w technologiach i konfliktach zbrojnych, uważa, że polityka realizowana przez Departament Obrony przyczyni się także do ustanowienia międzynarodowych norm dla wojskowego wykorzystania AI. Wskazuje, iż obecnie istnieje wiele obszarów, w których wciąż brakuje regulacji, na przykład jeśli chodzi o broń autonomiczną. Profesor jest zdania, że Waszyngton powinien stworzyć normy, w których odpowiedzialność za wypadki spowodowane bronią AI spoczywać będzie na człowieku. Technologia nie może pozostawać sama sobie. To ludzie muszą odpowiadać za jej działania.