Strona główna
Sławy nauki i biznesu przeciw broni autonomicznej. Apel o globalny zakaz
Wizja przyspieszającego rozwoju autonomicznych metod i instrumentów prowadzenia walki głęboko niepokoi coraz szerszą grupę przedstawicieli środowiska naukowo-przemysłowego. Nie brak wśród nich również tych najlepiej rozpoznawalnych, na czele z Elonem Muskiem i Stephenem Hawkingiem. W ostatnim czasie szef SpaceX ponownie dał zdecydowany wyraz swoim obawom w tej kwestii, zgłaszając pod adresem ONZ apel o zakaz stosowania śmiercionośnych technik autonomizacji pola walki i bojowych zastosowań sztucznej inteligencji.
Apel skierowany m.in. przez Elona Muska do Sekretariatu Organizacji Narodów Zjednoczonych w kwestii oczekiwanego zakazu stosowania broni autonomicznej poparło w sumie 116 specjalistów z 26 państw. Wśród nich znalazło się również wielu przedstawicieli branży robotycznej oraz różnych dziedzin inżynierii związanej z automatyką i algorytmiką. Cała zaangażowana grupa podpisała się pod listem otwartym do instytucji międzynarodowej o wydanie rezolucji zabraniającej powierzania kontroli nad śmiercionośnymi zasobami bojowymi autonomicznym jednostkom decyzyjnym i sztucznej inteligencji.
Sygnatariusze pisma przestrzegli w nim o dalekosiężnych konsekwencjach wyłączania czynnika ludzkiego z procesu decyzyjnego w toku realizacji kampanii militarnych i działań bojowych. Apel zawarty w liście do ONZ, odczytano podczas międzynarodowej konferencji nt. sztucznej inteligencji, jaka rozpoczęła się 19 sierpnia br. w Melbourne (International Joint Conference on Artificial Intelligence, IJCAI). W prezentowanych tam wystąpieniach zwracano uwagę m.in. na niebezpieczeństwa związane z oczekiwaną fundamentalną zmianą w postrzeganiu działań zbrojnych, jaką niesie za sobą rozwijanie technologii zautomatyzowanych. Wpływ rozwoju broni autonomicznej przyrównano tutaj wprost do rewolucji, porównywalnej jedynie z wynalezieniem prochu strzelniczego i broni nuklearnej.
W opinii sygnatariuszy listu broń autonomiczna może przewyższyć wszystkie dotąd znane technologie militarne pod kątem swojego śmiercionośnego potencjału i skali niebezpieczeństw dla ludności. Wskazano przy tym nie tylko na zagrożenia związane z utratą ludzkiej kontroli nad sztuczną inteligencją, ale również te dotyczące rozmyślnego nadużywania jej potencjału dla zbrodniczych celów. Za takie uznano państwowy terror i destabilizację relacji międzynarodowych z użyciem broni autonomicznej, której zabezpieczenia i blokady mogą być świadomie łamane lub naginane.
Z formalnego punktu widzenia, inicjatywa dotycząca zakazu rozwijania broni autonomicznej zakłada dopisanie tego rodzaju środków do listy niedozwolonych typów uzbrojenia widniejących od 1980 roku w konwencji o zakazie lub ograniczeniu użycia niektórych rodzajów broni konwencjonalnej.
W tym miejscu należy również zauważyć, że w przeszłości podejmowano już podobne inicjatywy. List otwarty dotyczący zbieżnej materii wystosowano w 2015 roku. Został on wówczas podpisany przez naukowców z różnych ośrodków akademickich i instytutów badawczych oraz przedstawicieli branży wysokich technologii. Wśród nich pojawiło się także nazwisko Elona Muska, jak również Stevena Hawkinga, Steve'a Wozniaka czy Noama Chomsky'ego.
Oglądaj: SKANER Space24: Roboty pod paragrafem. Powstaje europejskie prawo dotyczące sztucznej inteligencji