Armia i Służby
AI w wojsku wymaga zaufania do maszyny i człowieka
Wytyczne dotyczące stworzenia, a następnie etycznego wykorzystania sztucznej inteligencji dla celów wojskowych miały zbudować zaufanie sektora prywatnego do projektu Pentagonu. Zdaniem obserwatorów jednak, Departament Obrony USA czeka jeszcze długa droga i wiele wyzwań, zanim tak się stanie.
W 2018 roku pracownicy Google’a dowiedzieli się o zaangażowaniu koncernu w Project Maven – inicjatywę realizowaną przez Pentagon na rzecz stworzenia sztucznej inteligencji przeznaczonej do analizy wideo z monitoringu. W specjalnym liście do kierownictwa jednoznacznie stwierdzili: „Naszym zdaniem Google nie powinien brać udziału w przedsięwzięciu wojskowym”.
Pracownicy koncernu domagali się od firmy wycofania z projektu Departamentu Obrony (DoD) oraz ogłoszenia jasnych zasad mówiących, że ani Google, ani jego kontrahenci nie będą zaangażowani w budowanie technologii wojennych.
W tamtym czasie kilkunastu pracowników odeszło, co sprawiło, – łącznie z apelem wystosowanym do zarządu koncernu – że amerykański gigant ostatecznie nie przedłużył kontraktu z Pentagonem w 2019 roku.
Problem z zaufaniem
Pomimo tego Project Maven nie upadł. Miejsce Google’a zajęły inne firmy, w tym Amazon i Microsoft. Sytuacja jednak pokazała Pentagonowi, że ma spore problemy z budowaniem zaufania, co jest konieczne, aby mógł dysponować dostępem do najnowszych technologii, w szczególności sztucznej inteligencji, którą uważa się za przełomową. Nie będzie to jednak możliwe bez współpracy z Big Techami.
W związku z tym Departament Innowacji Obronnych (DIO), decydujący o kontraktach DoD dla firm, w marcu 2020 roku uruchomił "strategiczną inicjatywę” dotyczącą etycznych zasad sztucznej inteligencji w ramach swoich programów. Do opracowanych reguł muszą stosować się firmy współpracujące z Pentagonem.
Nie ma tak szczegółowych wytycznych
Zasady określają procedury dotyczące podmiotów, na które technologia może mieć negatywny wpływ i inne skutki jej stosowania, oraz sposoby mityzacji ryzyka. Procedury te mają dotyczyć rozwiązań na etapie projektowania i powstawania, jak i wdrożenia. „Nie ma, ani w Pentagonie ani w rządzie federalnym, tak szczegółowych wytycznych” – wskazał Bryce Goodman z Departamentu Innowacji Obronnych, współtwórca zasad, cytowany przez MIT Technology Review.
Podejście to może zmienić prace nad sztuczną inteligencją w USA, jednak dopiero wówczas, gdy wytyczne DoD zostaną przyjęte przez pozostałe departamenty. Bryce Goodman podkreślił, że zasady zostały przekazane m.in. Departamentowi Transportu; prowadzone są również rozmowy ze specjalistami ds. etyki w np. Departamencie Sprawiedliwości. Głównym celem takiego podejścia jest chęć upewnienia się, że kontrahenci i partnerzy technologiczni USA przestrzegają reguł dotyczących etycznego wykorzystania AI.
Głosy krytyczne
Z drugiej strony pojawiają się głosy krytyczne, m.in. ze strony działaczy kampanii Campaign for Killer Robots, według których opracowane zasady nie przyczynią się do zmiany sytuacji. Wskazują na np. brak reguł stwarzających ramy dla technologii śmiercionośnej broni autonomicznej, która ich zdaniem powinna zostać zakazana.
„Zawsze pojawią się tacy, który nigdy nie będą usatysfakcjonowani jakimkolwiek zestawem wytycznych dotyczących etyki, stworzonych przez Pentagon, ponieważ dla nich jest to paradoksem” – zaznaczył na łamach MIT Technology Review Bryce Goodman. Jak dodał, zasady dotyczące wspomnianej autonomicznej broni są opracowywane na „wyższym poziomie”. Wytyczne DIO mają uregulować kwestię budowy rozwiązań AI, które muszą spełniać określone normy.
Przed Pentagonem długa droga
Margaret Mitchell, specjalistka ds. sztucznej inteligencji w Hugging Face, wskazała na łamach MIT Technology Review, że zasady etycznej AI mogą pomóc w zwiększeniu przejrzystości Project Maven z perspektywy osób zaangażowanych w jego realizację.
Mitchell wcześniej pracowała dla Google’a i była jedną z głównych osób protestujących przeciwko podejmowaniu przez koncern wysiłków na rzecz inicjatywy Waszyngtonu. Jak wyjaśniła, podstawą „buntu” było to, że firma przekazywała swoje technologie amerykańskiej armii bez jakichkolwiek wytycznych ochronnych.
Jej zdaniem przed Pentagonem długa droga zanim uda mu się zbudować pełne zaufanie, które jest dla niego niezbędne. Aby tak się stało, należy pokonać wiele problemów. Jednym z nich są niejasne wytyczne, które pozostawiają pole do interpretacji.
Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.