Armia i Służby
Atak drona. AI uderzyła w swojego operatora? [AKTUALIZACJA]
W piątek pojawiły się medialne media, wskazujące, że dron zasilany technologią sztucznej inteligencji miał zaatakować swojego operatora, który nakazał mu wstrzymanie misji podczas testów Sił Powietrznych USA. Teraz zdementowano te doniesienia.
Technologia sztucznej inteligencji (AI) jest obecnie na ustach wszystkich – od naukowców i inżynierów, przez polityków i prawników, po przedstawicieli biznesu i wojskowych. Przewiduje się, że AI będzie miała ogromny wpływ na nasze życie w różnym wymiarze. Autonomia wpłynie na np. naszą pozycję na rynku pracy (np. pojawią się nowe zawody, część zostanie wyparta itd.), wygodę i oszczędność czasu w codziennym życiu, a patrząc z dalszej perspektywy może napędzić gospodarkę, co odczujemy w naszych portfelach.
Jednak jest jeden obszar, który – ze względu na bezpieczeństwo społeczeństwa i państwa – odgrywa strategiczną rolę. Mowa o siłach zbrojnych i wykorzystaniu w ich ramach sztucznej inteligencji. Czy wdrożenie AI do rozwiązań wojskowych oraz użycie jej w konfliktach i wojnach to odległa wizja?
Czytaj też
AI. Intensywny rozwój
Wystarczy spojrzeć na tempo rozwoju i zaangażowanie państw w rozwój tego typu technologii. Przykładowo, Stany Zjednoczone w ubiegłym roku posiadały co najmniej 685 projektów związanych z AI w wojsku. Wiele ze stworzonych rozwiązań jest już testowanych w realistycznych warunkach.
Na naszych łamach opisywaliśmy inicjatywę, w ramach której kraje AUKUS – czyli Australia, Wielka Brytania i USA – sprawdzały wspólnie opracowane modele i technologię AI w praktyce. Test dotyczył m.in. wykorzystania AI do śledzenia celów wojskowych.
Czytaj też
Wiele możliwości. Ale...
Istnieje wiele zalet z użycia technologii sztucznej inteligencji w siłach zbrojnych. Wystarczy wspomnieć o m.in. możliwości predykcji zużycia sprzętu, braków amunicji czy opracowywania scenariuszy operacji. Na polu walki – w teorii – także AI oferuje wiele możliwości, np. precyzyjniejsze uderzenia przy zmniejszonym ryzyku strat ludzkich.
Niepokojące są jednak kwestie związane z teoretycznymi zagrożeniami związanymi ze sztuczną inteligencją.
Czytaj też
Bunt sztucznej inteligencji?
W piątek 2 czerwca br. Newsweek opisywał ćwiczenie Sił Powietrznych USA, w ramach którego sztuczna inteligencja rzekomo zbuntowała się przeciwko swojemu operatorowi. Opisem zdarzenia miał podzielił się płk Tucker „Cinco" Hamilton, szef AI Test and Operations w USAF, w trakcie wydarzenia Future Combat Air & Space Capabilities Summit w Londynie.
Jak czytamy, podczas testu dron zasilany technologią sztucznej inteligencji miał za zadanie niszczenie obrony powietrznej wroga. Algorytm rzekomo został zaprojektowany do wykrywania i niszczenia pocisków ziemia-powietrze, lecz ostateczna decyzja o uderzeniu należała do operatora drona.
W momencie, gdy ten odrzucił prośbę AI o zniszczenie celu, bezzałogowiec miał przeprowadziłć atak na własnego operatora. Dlaczego? Ponieważ decyzja człowieka kolidowała w kontynuowaniu misji – podaje Newsweek, powołując się na słowa płk Hamiltona.
AKTUALIZACJA (3 czerwca)
Serwis NewScientist obala tę historię. Jak czytamy, opisywany przez Newsweek i inne media rzekomy incydent nie miał miejsca, co miały potwierdzić Siły Powietrzne USA.
"Siły Powietrzne USA nie przeprowadziły żadnych takich symulacji (...). Wygląda na to, że komentarze pułkownika (płk Tuckera Hamiltona - red.) zostały wyrwane z kontekstu i miały charakter anegdotyczny" - cytuje stanowisko amerykańskiego wojska NewScientist.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
BadaczNetu
"dron zasilany technologią sztucznej inteligencji" - już nie potrzeba akumulatorów ?
Darek_Lagos
Skynet już niedługo będzie gotowy do użycia. Oby tylko John Connor zdążył na czas wysłać przeprogramowanego T800
MiP
Za kilkadziesiąt bądź kilkaset lat będzie tak jak w Terminatorze
Beerman1111
Wnioskując z tekstu, nie był to jedynie zaawansowany skrypt detekcji obrony plot wspomagany AI, ale w pełni samodzielne, nieograniczone AI, które kreatywnie podchodziło do rozwiązania problemu. Jest to zaskakujące i może sugerować, że rozwiązania dostępne dla użytkowników (m.in. chatGPT) nie są wcale najbardziej rozwiniętymi AI, ale w rzeczywistości są testowane modele znacząco bardziej zaawansowane. Pytanie czemu nie pomyśleli o dodaniu ograniczeń w postaci zakazu atakowania sojuszniczej infrastruktury, podczas szkolenia modelu.
Macorr
Taki film widziałem, o tym Terminator się nazywał - nie wróży nic dobrego.....
Jerzy
A teraz wyobraźmy sobie, że to nie były ćwiczenia, a sztuczna inteligencja sterowała np. automatycznym systemem odpalającym rakiety w przypadku groźby ataku nuklearnego... Co gorsza nawet jeżeli państwa demokratyczne ograniczą zastosowanie AI w działaniach wojskowych, to nie ma żadnej gwarancji, że na przykład CHRL zrobi to samo - a gdyby doszło do otwartego konfliktu pomiędzy mocarstwami, to już w ogóle puszczą wszelkie hamulce, można zacząć się bać...