Reklama

#CyberMagazyn: AI doprowadzi do eskalacji konfliktów?

ukraina wojsko wojna inwazja Rosji
Technologia sztucznej inteligencji jest wykorzystywana m.in. na wojnie w Ukrainie.
Autor. Volodymyr Zelenskyy / Володимир Зеленський (@ZelenskyyUa)/X

Rozwój technologii sztucznej inteligencji przekłada się również na bezpieczeństwo międzynarodowe. Różnorodność podejścia do postępu w dziedzinie AI sprawia, że budowanie pokoju jest wyzwaniem, zwłaszcza jeśli chodzi o regiony zapalne lub pogrążone w wojnie.

Rok 2024 okazał się punktem zwrotnym w globalnej debacie o sztucznej inteligencji (AI) i pokoju. Najnowszy Yearbook Sztokholmskiego Instytutu Badań nad Pokojem (SIPRI) podkreśla, że uwaga decydentów przesunęła się z kwestii „klasycznych” autonomicznych systemów uzbrojenia (AWS) na szersze spektrum zastosowań — od systemów wspomagania decyzji w dowodzeniu po wykorzystanie AI w cyber- i informacyjnych operacjach bojowych

Autorzy zwracają przy tym uwagę, że szybka automatyzacja procesów dowodzenia może w skrajnych sytuacjach zwiększyć ryzyko błędnej, a nawet niezamierzonej eskalacji nuklearnej — zwłaszcza tam, gdzie łańcuch decyzyjny skraca się do milisekund.

Czytaj też

Technologia AI na froncie

Wojna na Ukrainie i w Strefie Gazy stały się poligonem dla systemów uczenia maszynowego. Badacze Europejskiej Rady Spraw Zagranicznych pokazali, jak Rosja wykorzystuje drony sterowane algorytmami do przełamywania ukraińskiej obrony. Z kolei The Guardian opisał izraelski projekt Lavender, który automatycznie wygenerował 37 tys. celów powiązanych z Hamasem. 

Rozwój takich rozwiązań wywołał gorące dyskusje etyczne — porównywano je nawet do „momentu Oppenheimera” sztucznej inteligencji.

Reklama

Forum genewskie i wysiłki ONZ

Najbardziej sformalizowany dialog nad bronią autonomiczną toczy się w Grupie Ekspertów Rządowych (GGE) przy Konwencji o Broni Konwencjonalnej. W 2024 r. rozmowy skupiły się/A-79-88-LAWS.pdf) wokół tzw. struktury dwupoziomowej (zakaz najbardziej ryzykownych AWS + ograniczenia dla pozostałych), lecz nadal występuje brak zgody, jak dokładnie opisać „znaczący udział człowieka”. 

Równolegle sekretarz generalny ONZ przedstawił obszerny raport zbierający opinie 73 państw oraz organizacji pozarządowych, w którym wezwał do przyjęcia prawnie wiążącego instrumentu najpóźniej do końca 2026 r.

Jeszcze w grudniu 2024 r. Zgromadzenie Ogólne przyjęło rezolucję 79/239, obligującą SG do dalszych konsultacji ze wszystkimi zainteresowanymi stronami, nie ograniczając się wyłącznie do kontekstu AWS. 

Czytaj też

Regionalne i tematyczne inicjatywy

Wiosną państwa ECOWAS spotkały się w Freetown i wspólnie poparły/78-241-ECOWAS-EN.pdf) rychłe rokowania nad traktatem o broni autonomicznej. Kilka dni później w Wiedniu zebrało się ponad tysiąc delegatów ze 144 krajów na konferencji Humanity at the Crossroads, skąd przewodniczący obradom opublikował dokument podsumowujący potrzebę uregulowania AWS w duchu „sensownej kontroli człowieka”.

Reklama

REAIM 2024 - wojskowa wspólnota AI

Wrześniowy szczyt Responsible AI in the Military Domain w Seulu zaowocował Blueprint for ActionSygnatariusze (63 państwa) uznali, że odpowiedzialne korzystanie z AI obejmuje nie tylko broń, lecz także planowanie, cyberoperacje i dezinformację; zawarli też katalog dwudziestu kroków obejmujących przejrzystość, możliwość audytu i budowę kompetencji w krajach rozwijających się.

Czytaj też

Deklaracja polityczna USA

Równolegle administracja amerykańska rozbudowuje Political Declaration on Responsible Military Use of AI and Autonomy

Po modyfikacjach z końca 2023 r. deklarację poparło 58 państw, które w marcu 2024 r. utworzyły trzy grupy robocze: ocena techniczna (AI Assurance), odpowiedzialność personalna i nadzór instytucjonalny. Celem jest wypracowanie wspólnych procedur testowania, dokumentacji i przeglądów prawnych.

Reklama

Dialog wielkich mocarstw

W maju Genewa gościła pierwsze bilateralne rozmowy USA-Chiny o ryzykach AI. Waszyngton skupił się na zarzutach dotyczących „niewłaściwego wykorzystania” sztucznej inteligencji przez Pekin, natomiast Chiny krytykowały restrykcje eksportowe, o czym pisała agencja AP News

W listopadzie 2024 r. prezydenci Biden i Xi potwierdzili w Limie, że decyzja o użyciu broni jądrowej musi pozostać pod nadzorem człowieka

Czytaj też

Od Bletchley Park do Seulu i Paryża

Globalny wymiar debaty nadają szczyty AI Safety Summit. Po deklaracji Bletchley (listopad 2023) kraje spotkały się w maju 2024 r. w Seulu. Ministerialne oświadczenie 27 państw połączyło wątki bezpieczeństwa, innowacji i inkluzywności, a 16 największych firm (od Google po Zhipu.ai) przyjęło dobrowolneFrontier AI Safety Commitments, zapowiadając wspólne testy i publiczne raporty z ryzyk modeli frontier. 

Powołano również Międzynarodową Sieć Instytutów Bezpieczeństwa AI, która zainaugurowała prace w Waszyngtonie w listopadzie. 

Reklama

Nowa agenda cyfrowa ONZ

Przy okazji wrześniowego Summit of the Future 193 państwa przyjęły Pact for the Future z załączonym Global Digital Compact. Dokument wygenerował 56 zobowiązań, w tym powołanie niezależnego panelu naukowego ds. AI i zapowiedź corocznych raportów o wpływie nowych technologii na pokój.

Czytaj też

Ryzyka cywilne

Raport brytyjskiego NCSC ostrzegł, że generatywna AI obniża próg wejścia dla cyberprzestępców. OpenAI, Anthropic i Google DeepMind opublikowały własne „ramy gotowości”, które mają zapobiec użyciu dużych modeli do projektowania np. broni biologicznej.

Reklama

Prawo i regulacje regionalne

Unia Europejska uchwaliła AI Act, wprowadzając zakaz np. masowego rozpoznawania twarzy i systemu socjalnego scoringu, a w przypadku modeli ogólnego przeznaczenia nowe wymogi dotyczące bezpieczeństwa i zarządzania ryzykiem. Został też powołany Europejski Urząd ds. AI, który już prowadzi konsultacje w sprawie wytycznych dla modeli podstawowych.

Z kolei Stany Zjednoczone realizują prezydencki dekret 14110: w NIST ruszył AI Safety Institute, który publikuje wytyczne dla red-teamingu i standardy syntetycznego oznaczania treści. Jednak należy podkreślić, że przyszłość regulacji zależy od polityki administracji Donalda Trumpa. 

Chiny natomiast wydały Basic Safety Requirements for Generative AI, wprowadzając obowiązkowe oceny ryzyka w pięciu kategoriach i deklarując gotowość do szerszych rozmów, także w ramach dialogu z Francją i ONZ.

Czytaj też

Porządkowanie ładu czy nowa mozaika?

Bogactwo inicjatyw budzi pytanie, czy tworzy się spójny system, czy raczej wielowarstwowa mozaika forów i deklaracji

SIPRI ostrzega, że nadmierna fragmentacja może utrudnić egzekwowanie zasad i sprzyjać wyścigowi zbrojeń algorytmicznych. Z drugiej strony, wielość platform pozwala szybciej testować pomysły: od „twardych” regulacji (UE) po miękkie normy branżowe (Seul, Waszyngton).

Jeśli te wysiłki zbiegną się w spójną architekturę, możliwe będzie pogodzenie innowacyjności z bezpieczeństwem. Jeżeli jednak inicjatywy pozostaną rozproszone, rok 2024 może przejść do historii nie tylko jako moment budzenia się regulacji, lecz także jako początek nowego, znacznie bardziej złożonego wyścigu zbrojeń technologicznych.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama
Reklama

WYCIEKI DANYCH z firm. JAK ZAPOBIEGAĆ wynoszeniu danych przez pracowników?

Materiał sponsorowany

Komentarze

    Reklama