Reklama

Armia i Służby

Jak wygląda polityka OpenAI względem treści o charakterze wojskowym?

OpenAI zmienia politykę. Czy to szansa dla wojska?

OpenAI wprowadziło zmiany w polityce firmy, usuwając ograniczenia, które wcześniej zabraniały działań związanych z wysokim ryzykiem obrażeń fizycznych - wśród nich można wymienić między innymi rozwój broni oraz wykorzystanie AI do celów wojskowych. Zaktualizowana polityka zabrania teraz jedynie rozwoju lub używania broni przy wykorzystaniu technologii amerykańskiego startupu.

Reklama

Opisywana zmiana wywołała spekulacje na temat potencjalnego partnerstwa między OpenAI a departamentami obrony różnych państw, które mogą być zainteresowane wykorzystaniem generatywnej sztucznej inteligencji do operacji administracyjnych lub wywiadowczych. Departament Obrony Stanów Zjednoczonych wyraził wcześniej swoje zaangażowanie w odpowiedzialne wojskowe wykorzystanie sztucznej inteligencji i systemów autonomicznych, dostosowując się do najlepszych międzynarodowych praktyk.

Reklama

Czytaj też

Reklama

Wojsko? Tak, ale z ograniczeniami

Sztuczna inteligencja odgrywa znaczącą rolę w kształtowaniu zdolności wojskowych, wykraczając poza samo uzbrojenie. Obejmuje ona różne systemy wspomagania decyzji, które pomagają przywódcom w podejmowaniu bardziej świadomych i terminowych wyborów, począwszy od pola bitwy po funkcje administracyjne, takie jak finanse, rekrutacja i analiza wywiadowcza.

Amerykańskie wojsko wykorzystało już sztuczną inteligencję w konflikcie rosyjsko-ukraińskim oraz w rozwoju autonomicznych pojazdów wojskowych. Ponadto sztuczna inteligencja została zintegrowana z wojskowymi systemami wywiadowczymi i celowniczymi, takimi jak wykorzystanie przez siły izraelskie systemu sztucznej inteligencji o nazwie „The Gospel” do identyfikacji celów i potencjalnego zminimalizowania ofiar w operacjach bojowych w Strefie Gazy.

Niedawna zmiana wytycznych OpenAI, oprócz odpowiedzi na długotrwałe obawy dotyczące uprzedzeń w systemach sztucznej inteligencji, ma na celu uproszczenie i usprawnienie zasad firmy. Rzecznik OpenAI Niko Felix w wypowiedzi dla Business Insidera stwierdził, że celem było stworzenie zestawu uniwersalnych zasad, które są łatwe do zapamiętania i zastosowania. To zdaniem firmy, szczególnie ważne teraz, gdy narzędzia OpenAI są używane globalnie przez zwykłych użytkowników, którzy mogą również tworzyć własne modele GPT. Jedną z nadrzędnych zasad jest „nie krzywdź innych”. To maksyma, która jest szeroka, ale łatwa do zrozumienia i ma zastosowanie w różnych sytuacjach. OpenAI podkreśla również znaczenie odpowiedzialnego użytkowania i maksymalizacji kontroli użytkownika w swojej polityce prywatności.

Czytaj też

Palantir robi to od lat

Peter Thiel znany między innymi z PayPala i inwestycji w Facebooka (na początku jego istnienia) od lat rozwija podobne technologie w ramach swojej firmy Palantir. W ostatnich miesiącach Palantir zaprezentował platformę AIP, która łączy duże modele językowe i pozwala użytkownikom na interakcję z nimi przy użyciu naturalnego języka - w specjalnie kontrolowanym otoczeniu. Aby zachować przejrzystość i spełnić wymogi regulacyjne, AIP prowadzi rejestr interakcji użytkowników z LLM. Jest to szczególnie istotne w regulowanych obszarach, takich jak obrona.

Palantir rozwijając AIP chciał postawić na jej wszechstronne zastosowanie oraz możliwość wdrażania zarówno sztucznej inteligencji jak i dużych modeli językowych nie tylko w różnych sieciach - ale także w zastosowaniach czysto taktycznych. Tego typu elastyczność umożliwia zastosowanie AI w operacjach wojskowych. Obecnie wojsko korzysta z inteligentnych asystentów, którzy dostarczają rekomendacje i odpowiadają na zapytania dotyczące analizy pola bitwy, planowania trasy i alokacji broni.

AIP wykorzystuje też sztuczną inteligencję do zautomatyzowanej analizy terenu, sugerując najbardziej efektywne trasy dla pojazdów i oddziałów w oparciu o czynniki takie jak geografia i skład jednostki. System jest też w stanie integrować dane ze źródeł takich jak satelity, czujniki IoT i raporty wywiadowcze w celu tworzenia świadomości sytuacyjnej w czasie rzeczywistym, wspomagając tym samym procesy decyzyjne. Zastosowania AIP wykraczają poza konkretne zadania wojskowe i obejmuje: planowanie operacji, logistykę, komunikację i wojnę informacyjną.

Czytaj też

Jak sytuacja wygląda w Polsce?

W ostatnim czasie pisaliśmy dla Was o specjalnie utworzonej Deklaracji, która skupia się na wykorzystaniu sztucznej inteligencji do celów wojskowych. Dokument został napisany pod przewodnictwem Stanów Zjednoczonych, które pod kątem AI na polu bitwy ewidentnie chcą uchodzić za lidera. Sytuacja z wykorzystaniem AI w polskim wojsku nie jest taka oczywista, jak mogłoby siię wydawać na pierwszy rzut oka.

W tekście mojego redakcyjnego kolegi, Szymona Palczewskiego możemy przeczytać ciekawą wypowiedź gen. bryg. Mariusz Chmielewskiego, zastępcy Dowódcy Komponentu Wojsk Obrony Cyberprzestrzeni (DKWOC), który w swojej publikacji zwraca uwagę, iż mając na względzie tempo badań i osiągnięcia w branży AI „w latach 2045-2060 może dojść do przełomu przewyższającego wpływ programów kosmicznych w XX wieku”. Przystąpienie Polski do grupy państw, które podpisały Deklarację stworzoną przez USA to zapewne kwestia miesięcy. Szczególnie w obecnej sytuacji geopolitycznej.

Czy Ministerstwo Obrony Narodowej i jednostki podległe posiadają regulacje lub rekomendacje dotyczące korzystania z chatbotów, takich jak ChatGPT czy systemy innych firm? O tym pisaliśmy w tym materiale.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:*[email protected].*

Reklama

Komentarze

    Reklama