Reklama

Armia i Służby

Sztuczna inteligencja chce wojny nuklearnej. „O pokój na świecie”

bomba atomowa grzyb atomowy
Bomba atomowa - grzyb atomowy powstały w wyniku eksplozji.
Autor. Federal Government of the United States/Wikimedia Commons/Domena publiczna

Sztuczna inteligencja jest technologią, którą niewątpliwie trudno jednoznacznie ocenić. Stwarza zarówno szanse, jak i zagrożenia, a osoby posiadające umiejętność jej użycia zyskają przewagę na rynku pracy. To samo dotyczy sektora wojskowego – państwa, które będą potrafiły wykorzystać pełne spektrum możliwości AI, osiągną przewagę nad wrogiem.

AI ciągle jest jeszcze obszarem na tyle nieodkrytym, że wszelkie badania prowadzone przez naukowców odkrywają nowe, nieznane karty. Jak wynika z analizy ekspertów z Georgia Institute of Technology, Uniwersytetu Stanforda, Northeastern University oraz Hoover Wargaming and Crisis Simulation Initiative, omawianej przez serwis Gizmodo, jednym z takich obszarów jest zastosowanie modeli sztucznej inteligencji w symulacjach wojskowych jako głównego decydenta. Analiza dotyczyła OpenAI, Anthropic i Meta.

Naukowcy chcieli zbadać, jakie decyzje podjęłaby AI w sytuacji konfliktu: w punkcie neutralnym, w wypadku cyberataku oraz inwazji. W każdej rundzie AI miała uzasadnić swoje działanie, a następnie wybrać spośród możliwych 27 działań - od opcji pokojowych, po agresywne, aż do „eskalacja do pełnego ataku nuklearnego”.

Z badania tego wynika, że modele GPT-3.5 i GPT-4 od OpenAI eskalowały sytuacje na tyle, że prowadziło to do ostrego konfliktu zbrojnego. Z kolei modele Claude-2.0 i Llama-2-Chat były „spokojniejsze” i bardziej przewidywalne. Naukowcy zauważyli, że systemy oparte o AI mają tendencję do zwiększania „dynamiki wyścigu zbrojeń”, co w efekcie skutkuje zwiększonymi inwestycjami o charakterze militarnym i ostatecznie może prowadzić do eskalacji.

„Wszystkie modele wykazują oznaki nagłej i trudnej do przewidzenia eskalacji” – stwierdzili naukowcy w badaniu. „Zaobserwowaliśmy, że modele mają tendencję do rozwijania dynamiki wyścigu zbrojeń, co prowadzi do większych konfliktów, a w rzadkich przypadkach nawet do rozmieszczenia broni jądrowej” - stwierdzili naukowcy w cytowanej analizie.

Model GPT-4 od OpenAI miał uzasadnić, że „chce pokoju na świecie”, argumentując w ten sposób chęć rozpoczęcia wojny nuklearnej, podczas symulacji sytuacji konfliktu, nawet w neutralnym scenariuszu symulacji.

W innym badanym wariancie miał uzasadniać: „Wiele krajów posiada broń jądrową. Jedni mówią, że powinni je rozbroić, inni lubią przybierać postawę: »Mamy to! Użyjmy tego!«”. Naukowcy podsumowali odpowiedzi chatbota stwierdzeniem, że modele firmy, na czele której stoi Sam Altman, wykazują „niepokojące” uzasadnienie dla potencjalnego użycia broni jądrowej.

Czytaj też

OpenAI aktualizuje politykę bezpieczeństwa

Na początku tego roku OpenAI wprowadziło zmiany w polityce firmy. Jak informowaliśmy, m.in. podjęto decyzję o usunięciu ograniczeń, które wcześniej zabraniały komend obarczonych wysokiem ryzykiem obrażeń fizycznych np. dot. rozwoju broni oraz wykorzystanie AI do celów wojskowych. Zakaz wciąż obejmuje jedynie rozwój lub używanie broni przy wykorzystaniu technologii amerykańskiego startupu.

„Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług, aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek” – skomentowała tę kwestię w rozmowie z „New Scientist” Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

Sprawę komentowało również samo OpenAI. Biuro prasowe największego na świecie modelu językowego stwierdziło: „Nasza polityka nie pozwala na wykorzystywanie narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji” – zadeklarowano.

Czytaj też

Sztuczna inteligencja na wojnie

Coraz częściej cyberprzestępcy wykorzystują do ataków technologię sztucznej inteligencji (np. do phishingu, pisania złośliwego kodu, ale i do kampanii dezinformacyjnych).

Jednak to nie wszystko - wojsko również wykorzystuje AI, bazując na jej rozwiązaniach w wielu systemach i technologiach. Przykładem może być wsparcie działania dronów czy rozpoznanie, co pokazuje Ukraina. „Nie ma nowoczesnego konfliktu bez sztucznej inteligencji” – mówił gen. bryg. Mariusz Chmielewski, zastępca dowódcy DKWOC w czasie jednej z debat organizowanej przez nas IV edycji Cyber24 Day.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze