Reklama
  • WIADOMOŚCI

Konflikt Anthropica z Pentagonem. Gdzie są granice etyki AI?

Kontrakt wart 200 mln dolarów, zarzuty o zagrożenie dla bezpieczeństwa narodowego i groźby użycia „pełnej mocy prezydenta” - spór między Anthropic a Pentagonem przerodził się w otwarty konflikt o granice wykorzystania sztucznej inteligencji w wojsku. Gdy firma odmówiła zgody na „jakiekolwiek zgodne z prawem wykorzystanie” swoich modeli bez dodatkowych zabezpieczeń, administracja USA odpowiedziała ostrą retoryką i sankcjami. W tym samym czasie OpenAI wynegocjowało własne porozumienie z Departamentem Obrony, wprowadzając odrębne „czerwone linie”. Sprawa stała się nie tylko testem relacji państwo–biznes, ale także pytaniem o to, kto i na jakich zasadach powinien wyznaczać etyczne granice militarnego zastosowania AI.

“Technologia nie jest jeszcze gotowa na wiele rzeczy i wiele obszarów, w których nie rozumiemy niezbędnych dla zapewnienia bezpieczeństwa kompromisów.” - Sam Altman
“Technologia nie jest jeszcze gotowa na wiele rzeczy i wiele obszarów, w których nie rozumiemy niezbędnych dla zapewnienia bezpieczeństwa kompromisów.” - Sam Altman
Autor. CyberDefence24/Canva
  • Anthropic jako pierwszy duży podmiot AI wszedł w ścisłą współpracę z Pentagonem, opracowując modele Claude Gov do zastosowań wojskowych - odmówił on jednak zniesienia pewnych ograniczeń dotyczących ich użycia.
  • Pentagon żądał umożliwienia „wszelkich zgodnych z prawem zastosowań" technologii, co zdaniem firmy mogłoby otworzyć drogę do masowej inwigilacji lub w pełni autonomicznej broni - czemu sprzeciwił się CEO Dario Amodei.
  • Administracja prezydenta Donalda Trumpa odpowiedziała nakazem wycofania technologii Anthropic z agencji federalnych oraz uznaniem firmy za zagrożenie dla łańcucha dostaw.
  • W odpowiedzi na konflikt część branży technologicznej (m.in. pracownicy Google, Microsoft i Amazon) wsparła Anthropic, apelując o solidarność wobec presji rządu.
  • OpenAI pod kierownictwem Sama Altmana zawarło porozumienie z Pentagonem, wprowadzając własne „czerwone linie".

Aby w pełni zrozumieć podłoże konfliktu, warto zwrócić uwagę na szczególną pozycję Anthropic jako pierwszej firmy technologicznej z tak dużym laboratorium AI, która nawiązała współpracę z Pentagonem.

W ubiegłym roku spółka podpisała bowiem kontrakt o wartości 200 mln dolarów w ramach którego zostały opracowane m.in. niestandardowe modele Claude Gov przeznaczone do zastosowań rządowych i wojskowych. Zostały one zaprojektowane z mniejszą liczbą ograniczeń niż ich standardowe wersje. Jak podaje Wired, do realizacji tajnych projektów wojskowych model firmy jest dostępny za pośrednictwem platformy Palantir Technologies i chmury Amazon Web Services . Wykorzystuje się go m.in. do tworzenia raportów, podsumowywania dokumentów, a także do analizy wywiadowczej i planowania operacyjnego.

Według informacji Bloomberga, Anthropic - którego wycena sięga ok. 380 mld dolarów - jest też pierwszą firmą AI posiadającą zgodę Pentagonu na przetwarzanie materiałów niejawnych.

Dodatkowo, jej narzędzie szybko zyskało popularność wśród personelu obronnego ze względu na intuicyjną obsługę.

Granice lojalności korporacyjnej wobec państwa

Na początku lutego 2026 r. relacje między Anthropic a Departamentem Obrony Stanów Zjednoczonych (Pentagonem), mimo że formalnie pozostawały stabilne, w kuluarach stawały się coraz bardziej napięte. Wynikało to z negocjacji dotyczących zmiany warunków zawartego w lipcu kontraktu, obejmującego wdrożenie zaawansowanych systemów sztucznej inteligencji w tajnych środowiskach. Proponowane modyfikacje miały znieść ograniczenie dotyczące sposobu wykorzystywania technologii AI do „wszelkich działań zgodnych z prawem”. Na takie rozwiązanie nie było jednak zgody ze strony Anthropic, które obawiało się wykorzystania swoich technologii w sposób podważający wartości demokratyczne.

W wąskim zakresie przypadków uważamy, że sztuczna inteligencja może podważać, a nie bronić wartości demokratycznych. Niektóre zastosowania wykraczają poza granice tego, co dzisiejsza technologia może bezpiecznie i niezawodnie zapewnić
Dario Amodei

Bloomberg zwrócił uwagę na zbieg konfliktu z opublikowaną kilka tygodni wcześniej przez Pentagon strategią dotyczącą sztucznej inteligencji. Dokument ten zobowiązuje Departament Obrony do przyspieszenia amerykańskiej dominacji w dziedzinie AI poprzez przekształcenie sił zbrojnych w strukturę „AI first”. Oznacza to wykorzytywanie sztucznej inteligencji na wszystkich poziomach i we wszystkich obszarach operacyjnych administracji. Strategia nakazuje także Departamentowi „wykorzystywać modele wolne od ograniczeń wynikających z polityki użytkowania, które mogą ograniczać zgodne z prawem zastosowania wojskowe”. Jednoczenie technologia nie może być wykorzystywana ponad prawem. Urzędnicy Pentagonu oczekiwali więc możliwości uruchamiania oprogramowania Claude (jednego z nielicznych narzędzi AI dopuszczonych do pracy z materiałami niejawnymi w chmurze) bez ograniczeń.

Żądania Pentagonu wydawały się przekraczać wyznaczoną przez Anthropic czerwoną linię. Firma uznała, że oczekiwane rozszerzenie zakresu zastosowań mogłoby umożliwić wykorzystanie AI do pełnego „sterowania śmiercionośną bronią autonomiczną lub do prowadzenia masowej inwigilacji obywateli USA”.

25 lutego Pentagon przedstawił spółce warunki zawierające zapisy dotyczące nadzoru i autonomii systemów. Okazały się one jednak niewystarczające. Jak poinformowała Bloomberg anonimowa osoba zaznajomiona ze sprawą, propozycja nie wykluczała możliwości zdjęcia ograniczeń wymienionych w zapisach, gdy Pentagon uzna to za konieczne.

Zaczęły pojawiać się głosy, że prywatny wykonawca nie powinien decydować o tym, w jaki sposób jego narzędzia są wykorzystywane do zapewnienia bezpieczeństwa narodowego. Sytuację eskalowały też groźby usunięcia firmy z systemów Departamentu oraz uznania jej za „zagrożenie dla łańcucha dostaw” - określenie dotąd stosowane wobec przeciwników USA, nigdy wobec amerykańskich przedsiębiorstw.

W przypadku niewywiązania się z oczekiwań Departamentu Obrony, zapowiedział możliwość powołania się na Defense Production Act w celu wymuszenia usunięcia zabezpieczeń.

Następnego dnia Anthropic opublikowało oficjalne oświadczenie dyrektora generalnego Dario Amodei, w którym odrzucono ofertę Pentagonu, mimo że termin jej przyjęcia upływał w piątek. W komunikacie napisano:

Jednak w wąskim zakresie przypadków uważamy, że sztuczna inteligencja może podważać, a nie bronić wartości demokratycznych. Niektóre zastosowania wykraczają poza granice tego, co dzisiejsza technologia może bezpiecznie i niezawodnie zapewnić. Dwa takie przypadki użycia nigdy nie zostały uwzględnione w naszych umowach z Departamentem Wojny i uważamy, że nie powinny być teraz uwzględniane: masowy nadzór krajowy (...) oraz w pełni autonomiczna broń (...)
Dario Amodei

Tym samym odrzucono propozycję Departamentu Obrony.

Reklama

Administracja USA odpowiada siłą

W piątek, tuż po upływie oficjalnego terminu na podjęcie decyzji, prezydent Donald Trump opublikował oświadczenie na platformie Truth Social, które rozpoczął od słów (drukowanymi literami):

STANY ZJEDNOCZONE AMERYKI NIGDY NIE POZWOLĄ RADYKALNIE LEWICOWEJ, PRZEBUDZONEJ FIRMIE DYKTOWAĆ, W JAKI SPOSÓB NASZE WIELKIE SIŁY WOJSKOWE MAJĄ WALCZYĆ I WYGRYWAĆ WOJNY!
Donald Trump

W związku z tym, że „Egoizm (firmy Anthropic - red.) naraża życia amerykanów, nasze wojska na niebezpieczeństwo i nasze bezpieczeństwo narodowe na zagrożenie”, nakazał wszystkim agencjom federalnym rządu Stanów Zjednoczonych natychmiast zaprzestać wykorzystywania technologii Anthropic. Jednocześnie wyznaczył sześciomiesięczny okres na całkowite wycofanie jej rozwiązań z użycia.

Oświadczenie zawierało również groźby, „Anthropic musi się zebrać i pomóc w tym okresie, w przeciwnym razie użyję pełnej mocy Prezydenta, aby zmusić ich do przestrzegania, co pociągnie za sobą poważne konsekwencje cywilne i karne.

Anthropic już wcześniej informowało w swoim komunikacie, że żadne zastraszanie ani kary nie zmienią stanowiska firmy. W wywiadzie dla CBS Dario Amodei zapowiedział, że zakwestionuje w sądzie wszelkie formalne decyzje wymierzone w jego spółkę.

Swoje stanowisko wyraził również sekretarz obrony Pete Hegseth. Określił działania Anthropic jako „mistrzowską lekcję na temat arogancji i zdrady, a także podręcznikowy przykład tego, jak nie należy robić interesów z rządem Stanów Zjednoczonych i Pentagonem” oraz „tchórzliwy akt korporacyjnego sygnalizowania cnoty, stawiający ideologię Doliny Krzemowej ponad amerykańskie życie.

Tak jak zapowiadano wcześniej, uznał on Anthropic za „zagrożenie dla bezpieczeństwa narodowego w łańcuchu dostaw”, ze skutkiem natychmiastowym, co formalnie wyklucza firmę z wszelkich relacji biznesowych z rządem USA. Oznacza to także, że każdy podmiot współpracujący z siłami zbrojnymi Stanów Zjednoczonych nie może jednocześnie prowadzić działalności handlowej z Anthropic.

Były doradca prezydenta USA ds. sztucznej inteligencji Dean Ball, określił tą decyzję ją jako „usiłowanie korporacyjnego morderstwa”.

Z kolei Zoë Schiffer, amerykańska dziennikarka technologiczna, w podcaście Wired powiedziała:

Myślę, że próbują w ten sposób pokazać, że firmy, które chcą dużych kontraktów wojskowych lub w ogóle dużych kontraktów rządowych, nie mogą umieszczać w nich swoich wartości. Zasadniczo, jeśli chcesz tych pieniędzy, musisz zrobić wszystko, co konieczne, żeby wygrać.
Zoë Schiffer

Wspólny front firm wobec presji Pentagonu

W tym miejscu warto wspomnieć, że pracownicy branży technologicznej w dużej mierze stanęli po stronie Anthropic. Utworzyli nawet koalicję pracowników zatrudnionych m.in. w Amazon, Google, Microsoft, a nawet OpenAI, wspierających tą sprawę. Apelują oni do swoich pracodawców, aby przyłączyli się do Anthropic i również odmówili spełnienia żądań Departamentu Obrony dotyczących nieograniczonego wykorzystywania produktów AI.

Z inicjatywy obecnych i byłych pracowników Google oraz OpenAI powstał także list otwarty zatytułowany „nie będziemy podzieleni”, wzywający do poparcia stanowiska, że technologie te nie powinny być wykorzystywane do krajowej inwigilacji ani jako broni autonomicznej.

List ma na celu „budowanie wspólnego zrozumienia, przejrzystości i solidarności”. Jego autorzy przekonują, że tylko otwarta komunikacja między spółkami może ograniczyć presję wywieraną przez Pentagon. Gdyż, jak wskazano w dokumencie, Departament Obrony stosuje strategię rozgrywania firm przeciwko sobie. Ma on też wykorzystywać ich obawy o ustąpienie konkurencji pod naciskiem i zaakceptowaniu przez nią bardziej rygorystycznych warunków. W efekcie każda z firm może czuć się osamotniona w swoim sprzeciwie.

Autorzy listu podkreślają, że taka taktyka jest skuteczna jedynie wtedy, gdy brakuje wzajemnej wiedzy o stanowiskach poszczególnych podmiotów. Dlatego ich inicjatywa ma służyć wzmocnieniu poczucia wspólnoty interesów w branży.

Reklama

OpenAI nowym sojusznikiem Pentagonu

W oświadczeniu Dario Amodei napisał:

Departament Wojny oświadczył , że będzie zawierał umowy wyłącznie z firmami zajmującymi się sztuczną inteligencją, które wyrażą zgodę na „jakiekolwiek zgodne z prawem wykorzystanie" i usuną zabezpieczenia w wyżej wymienionych przypadkach
Dario Amodei

Podczas gdy Anthropic i Pentagon pozostawały w sporze, Sam Altman, dyrektor generalny OpenAI, rozpoczął własne negocjacje z Departamentem Obrony. Jak podaje The New York Times, rozmowy ruszyły już w środę.

Okazały się one na tyle skuteczne, że już w piątek wieczorem (zaledwie kilka godzin po upływie terminu na przyjęcie oferty przez Anthropic) OpenAI poinformowało o osiągnięciu porozumienia z Pentagonem. Spółka podkreśliła, że umowa zawiera więcej zabezpieczeń niż jakiekolwiek wcześniejsze ustalenia tego typu.

W oświadczeniu wskazano trzy wspólnie uzgodnione „czerwone linie”. Nie należy wykorzystywać technologii OpenAI do

  • masowego nadzoru wewnętrznego;
  • sterowania autonomicznymi systemami uzbrojenia;
  • zautomatyzowanego podejmowania decyzji o dużej wadze (np. w systemach „kredytu społecznego").

W praktyce oznacza to, że OpenAI dopuszcza wykorzystywanie swoich systemów sztucznej inteligencji do „dowolnych celów zgodnych z prawem”, z zastrzeżeniem możliwości instalowania określonych zabezpieczeń technicznych, które, w ocenie firmy, mają uniemożliwić użycie technologii w sposób sprzeczny z jej zasadami.

Dodatkowo pracownicy OpenAI mają współpracować z Pentagonem przy tajnych projektach „aby pomóc w rozwoju modeli i zapewnić ich bezpieczeństwo”.

Spółka uzasadnia swoją decyzję wsparciem misji amerykańskich sił zbrojnych, dla których duże modele językowe mogą stanowić istotne narzędzie operacyjne. Jednocześnie wskazuje na chęć złagodzenia napięć między Departamentem Obrony a amerykańskimi laboratoriami sztucznej inteligencji”.

Dlaczego OpenAI udało się wynegocjować kontrakt, podczas gdy Anthropic zostało uznane za handlowe „persona non grata”? Wielu zadawało sobie to pytanie, więc firma zawarła swoją odpowiedź w opublikowanym wyjaśnieniu:

Na podstawie naszej wiedzy uważamy, że nasza umowa zapewnia lepsze gwarancje i bardziej odpowiedzialne zabezpieczenia niż wcześniejsze umowy, w tym pierwotna umowa Anthropic. Uważamy, że nasze „czerwone linie" są w tym przypadku bardziej egzekwowalne, ponieważ wdrożenie ogranicza się wyłącznie do chmury (...), nasz stos bezpieczeństwa działa w sposób, który uważamy za najlepszy i zapewnia dostęp do informacji uprawnionym pracownikom OpenAI.
Oświadczenie OpenAI

Jednocześnie OpenAI jasno podkreśliło, że Anthropic nie powinno zostać uznane za ryzyko łańcucha dostaw oraz, że jasno przedstawiło rządowi swoje stanowisko w tej kwestii.

Doprecyzowanie zapisów po fali zarzutów

W ciągu weekendu OpenAI spotkało się z falą krytyki, ponieważ opublikowane oświadczenie nie zawierało jednoznacznych zapisów dotyczących zakazu inwigilacji obywateli USA.

W odpowiedzi na te zarzuty w poniedziałek wieczorem Sam Altman poinformował na platformie X o wprowadzeniu uzupełnienia do umowy z Departamentem. Nowe zapisy mają zabraniać „celowego śledzenia, nadzoru lub monitorowania osób lub obywateli USA, w tym poprzez pozyskiwanie lub wykorzystywanie komercyjnie pozyskanych danych osobowych lub identyfikacyjnych”.

Ponadto dokument nie przewiduje wykorzystywania tej technologii przez jednostki wywiadowcze Departamentu Obrony, takie jak National Security Agency. Ewentualna współpraca z tego typu podmiotami miałaby wymagać zawarcia odrębnych umów.

Oświadczenie to jednak „pęka jak bańka mydlana” w zderzeniu z opublikowanym 3 marca artykułem CNBC. Powołując się na anonimowe źródło stacja ujawniła, że tego samego dnia na spotkaniu pracowniczym Sam Altman przyznał, iż jego firma nie ma wpływu na to, w jaki sposób wojsko wykorzysta jej technologię. Dodał również, że decyzje operacyjne w tej sprawie należą do sekretarza Peta Hegsetha.

Reklama
CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?