#CyberMagazyn: AI doprowadzi do eskalacji konfliktów?

Autor. Volodymyr Zelenskyy / Володимир Зеленський (@ZelenskyyUa)/X
Rozwój technologii sztucznej inteligencji przekłada się również na bezpieczeństwo międzynarodowe. Różnorodność podejścia do postępu w dziedzinie AI sprawia, że budowanie pokoju jest wyzwaniem, zwłaszcza jeśli chodzi o regiony zapalne lub pogrążone w wojnie.
Rok 2024 okazał się punktem zwrotnym w globalnej debacie o sztucznej inteligencji (AI) i pokoju. Najnowszy Yearbook Sztokholmskiego Instytutu Badań nad Pokojem (SIPRI) podkreśla, że uwaga decydentów przesunęła się z kwestii „klasycznych” autonomicznych systemów uzbrojenia (AWS) na szersze spektrum zastosowań — od systemów wspomagania decyzji w dowodzeniu po wykorzystanie AI w cyber- i informacyjnych operacjach bojowych.
Autorzy zwracają przy tym uwagę, że szybka automatyzacja procesów dowodzenia może w skrajnych sytuacjach zwiększyć ryzyko błędnej, a nawet niezamierzonej eskalacji nuklearnej — zwłaszcza tam, gdzie łańcuch decyzyjny skraca się do milisekund.
Czytaj też
Technologia AI na froncie
Wojna na Ukrainie i w Strefie Gazy stały się poligonem dla systemów uczenia maszynowego. Badacze Europejskiej Rady Spraw Zagranicznych pokazali, jak Rosja wykorzystuje drony sterowane algorytmami do przełamywania ukraińskiej obrony. Z kolei The Guardian opisał izraelski projekt Lavender, który automatycznie wygenerował 37 tys. celów powiązanych z Hamasem.
Rozwój takich rozwiązań wywołał gorące dyskusje etyczne — porównywano je nawet do „momentu Oppenheimera” sztucznej inteligencji.
Forum genewskie i wysiłki ONZ
Najbardziej sformalizowany dialog nad bronią autonomiczną toczy się w Grupie Ekspertów Rządowych (GGE) przy Konwencji o Broni Konwencjonalnej. W 2024 r. rozmowy skupiły się/A-79-88-LAWS.pdf) wokół tzw. struktury dwupoziomowej (zakaz najbardziej ryzykownych AWS + ograniczenia dla pozostałych), lecz nadal występuje brak zgody, jak dokładnie opisać „znaczący udział człowieka”.
Równolegle sekretarz generalny ONZ przedstawił obszerny raport zbierający opinie 73 państw oraz organizacji pozarządowych, w którym wezwał do przyjęcia prawnie wiążącego instrumentu najpóźniej do końca 2026 r.
Jeszcze w grudniu 2024 r. Zgromadzenie Ogólne przyjęło rezolucję 79/239, obligującą SG do dalszych konsultacji ze wszystkimi zainteresowanymi stronami, nie ograniczając się wyłącznie do kontekstu AWS.
Czytaj też
Regionalne i tematyczne inicjatywy
Wiosną państwa ECOWAS spotkały się w Freetown i wspólnie poparły/78-241-ECOWAS-EN.pdf) rychłe rokowania nad traktatem o broni autonomicznej. Kilka dni później w Wiedniu zebrało się ponad tysiąc delegatów ze 144 krajów na konferencji Humanity at the Crossroads, skąd przewodniczący obradom opublikował dokument podsumowujący potrzebę uregulowania AWS w duchu „sensownej kontroli człowieka”.
REAIM 2024 - wojskowa wspólnota AI
Wrześniowy szczyt Responsible AI in the Military Domain w Seulu zaowocował Blueprint for Action. Sygnatariusze (63 państwa) uznali, że odpowiedzialne korzystanie z AI obejmuje nie tylko broń, lecz także planowanie, cyberoperacje i dezinformację; zawarli też katalog dwudziestu kroków obejmujących przejrzystość, możliwość audytu i budowę kompetencji w krajach rozwijających się.
Czytaj też
Deklaracja polityczna USA
Równolegle administracja amerykańska rozbudowuje Political Declaration on Responsible Military Use of AI and Autonomy.
Po modyfikacjach z końca 2023 r. deklarację poparło 58 państw, które w marcu 2024 r. utworzyły trzy grupy robocze: ocena techniczna (AI Assurance), odpowiedzialność personalna i nadzór instytucjonalny. Celem jest wypracowanie wspólnych procedur testowania, dokumentacji i przeglądów prawnych.
Dialog wielkich mocarstw
W maju Genewa gościła pierwsze bilateralne rozmowy USA-Chiny o ryzykach AI. Waszyngton skupił się na zarzutach dotyczących „niewłaściwego wykorzystania” sztucznej inteligencji przez Pekin, natomiast Chiny krytykowały restrykcje eksportowe, o czym pisała agencja AP News.
W listopadzie 2024 r. prezydenci Biden i Xi potwierdzili w Limie, że decyzja o użyciu broni jądrowej musi pozostać pod nadzorem człowieka.
Czytaj też
Od Bletchley Park do Seulu i Paryża
Globalny wymiar debaty nadają szczyty AI Safety Summit. Po deklaracji Bletchley (listopad 2023) kraje spotkały się w maju 2024 r. w Seulu. Ministerialne oświadczenie 27 państw połączyło wątki bezpieczeństwa, innowacji i inkluzywności, a 16 największych firm (od Google po Zhipu.ai) przyjęło dobrowolneFrontier AI Safety Commitments, zapowiadając wspólne testy i publiczne raporty z ryzyk modeli frontier.
Powołano również Międzynarodową Sieć Instytutów Bezpieczeństwa AI, która zainaugurowała prace w Waszyngtonie w listopadzie.
Nowa agenda cyfrowa ONZ
Przy okazji wrześniowego Summit of the Future 193 państwa przyjęły Pact for the Future z załączonym Global Digital Compact. Dokument wygenerował 56 zobowiązań, w tym powołanie niezależnego panelu naukowego ds. AI i zapowiedź corocznych raportów o wpływie nowych technologii na pokój.
Czytaj też
Ryzyka cywilne
Raport brytyjskiego NCSC ostrzegł, że generatywna AI obniża próg wejścia dla cyberprzestępców. OpenAI, Anthropic i Google DeepMind opublikowały własne „ramy gotowości”, które mają zapobiec użyciu dużych modeli do projektowania np. broni biologicznej.
Prawo i regulacje regionalne
Unia Europejska uchwaliła AI Act, wprowadzając zakaz np. masowego rozpoznawania twarzy i systemu socjalnego scoringu, a w przypadku modeli ogólnego przeznaczenia nowe wymogi dotyczące bezpieczeństwa i zarządzania ryzykiem. Został też powołany Europejski Urząd ds. AI, który już prowadzi konsultacje w sprawie wytycznych dla modeli podstawowych.
Z kolei Stany Zjednoczone realizują prezydencki dekret 14110: w NIST ruszył AI Safety Institute, który publikuje wytyczne dla red-teamingu i standardy syntetycznego oznaczania treści. Jednak należy podkreślić, że przyszłość regulacji zależy od polityki administracji Donalda Trumpa.
Chiny natomiast wydały Basic Safety Requirements for Generative AI, wprowadzając obowiązkowe oceny ryzyka w pięciu kategoriach i deklarując gotowość do szerszych rozmów, także w ramach dialogu z Francją i ONZ.
Czytaj też
Porządkowanie ładu czy nowa mozaika?
Bogactwo inicjatyw budzi pytanie, czy tworzy się spójny system, czy raczej wielowarstwowa mozaika forów i deklaracji.
SIPRI ostrzega, że nadmierna fragmentacja może utrudnić egzekwowanie zasad i sprzyjać wyścigowi zbrojeń algorytmicznych. Z drugiej strony, wielość platform pozwala szybciej testować pomysły: od „twardych” regulacji (UE) po miękkie normy branżowe (Seul, Waszyngton).
Jeśli te wysiłki zbiegną się w spójną architekturę, możliwe będzie pogodzenie innowacyjności z bezpieczeństwem. Jeżeli jednak inicjatywy pozostaną rozproszone, rok 2024 może przejść do historii nie tylko jako moment budzenia się regulacji, lecz także jako początek nowego, znacznie bardziej złożonego wyścigu zbrojeń technologicznych.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
WYCIEKI DANYCH z firm. JAK ZAPOBIEGAĆ wynoszeniu danych przez pracowników?
Materiał sponsorowany