Spór Pentagon-Anthropic a przyszłość autonomicznej broni AI

Spór Pentagon-Anthropic a przyszłość autonomicznej broni AI

2026-03-10

27 lutego 2026 roku, o godzinie 12:47 czasu pacyficznego, Prezydent Donald Trump opublikował na platformie TruthSocial komunikat, który na zawsze zmienił krajobraz amerykańskiego sektora sztucznej inteligencji: „EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic’s technology„. W ciągu kilku godzin jedna z najważniejszych firm AI w Stanach Zjednoczonych — dostawca systemu Claude dla Departamentu Obrony, CIA i NSA – została de facto wykluczona z amerykańskiego łańcucha dostaw obronnych. Powód? Odmowa usunięcia dwóch klauzul z polityki użytkowania: zakazu wykorzystywania Claude do autonomicznej broni bez ludzkiego nadzoru oraz do masowej inwigilacji obywateli amerykańskich.

Aby zrozumieć dramaturgię tego wydarzenia, trzeba wpierw pojąć, kto jest kim w tej historii. Anthropic to nie jest zwyczajny startup technologiczny. To spółka typu Public Benefit Corporation — struktura prawna, która konstytucyjnie zobowiązuje kierownictwo do realizacji interesu publicznego (bezpieczeństwo AI) obok zysków akcjonariuszy. Jej model sztucznej inteligencji, Claude, przewyższa w większości testów akademickich słynnego ChatGPT firmy OpenAI i jest jedynym systemem AI dopuszczonym przez rząd amerykański do pracy z informacjami niejawnymi. Claude analizuje dane wywiadowcze, wspiera operacje cybernetyczne i pomaga w planowaniu misji wojskowych. Anthropic była, paradoksalnie, jednym z najważniejszych partnerów technologicznych Pentagonu.

Konflikt eskalował przez tygodnie, przypominając klasyczny konflikt między homo sapiens a homo faber — między mądrością a mocą. W styczniu 2026 r. nowy Sekretarz Obrony Pete Hegseth — działający w ramach departamentu przemianowanego z Departamentu Obrony na „Departament Wojny” — zażądał od wszystkich dostawcó technologii AI usunięcia ograniczeń użytkowania i zastąpienia ich klauzulą „any lawful use” (każde prawnie dopuszczalne zastosowanie). Nazwa „Departament Wojny” nie była przypadkowa — przywracała etymologiczną szczerość, której brakuje eufemizmom biurokratycznym. Wojna to wojna, nie „operacja pokojowa”. Anthropic zgodziła się na niemal wszystko — z wyjątkiem dwóch „czerwonych linii”: zakazu autonomicznej broni bez ludzkiego nadzoru i masowej inwigilacji Amerykanów. CEO Dario Amodei argumentował, że Claude po prostu nie był trenowany ani testowany pod kątem tych zastosowań, a jego skłonność do „halucynacji” w środowiskach wysokiego ryzyka czyniła takie użycie niebezpiecznym. To był argument inżyniera, nie moralisty — ale w świecie, gdzie technologia wyprzedza etykę, inżynieria staje się etyką przez przypadek.

Odpowiedź rządu była natychmiastowa i bezwzględna. Jeszcze przed upływem ultimatum Sekretarz Hegseth wyznaczył Anthropic jako „zagrożenie łańcucha dostaw bezpieczeństwa narodowego” — etykietę dotychczas zarezerwowaną dla podmiotów powiązanych z Chinami, Rosją czy Iranem. Prezydencki tweet wywołał kaskadę: GSA usunęła Anthropic z list zatwierdzonych dostawców, wszystkie departamenty federalne zerwały kontrakty, kontrahenci wojskowi otrzymali zakaz prowadzenia jakiejkolwiek działalności handlowej z firmą. W ciągu jednego dnia Anthropic — strategiczny partner w dziedzinie sztucznej inteligencji — stała się persona non grata w amerykańskim aparacie bezpieczeństwa.

9 marca 2026 r. Anthropic złożyła pozew przeciwko Departamentowi Wojny i Sekretarzowi Hegsethowi przed federalnym sądem w San Francisco (sprawa nr 3:26-cv-01996) — jak potwierdziły Reuters, Fortune i Wired. Skarga podnosi pięć fundamentalnych zarzutów konstytucyjnych: naruszenie ustawy o procedurze administracyjnej, Pierwszej Poprawki (wolność słowa), doktryny ultra vires (działanie poza kompetencją), Piątej Poprawki (proces sądowy) oraz sankcje poza delegowaną jurysdykcją. To pierwszy w historii proces, w którym prywatna korporacja AI pozwała rząd amerykański o prawo do odmowy świadczenia usług na rzecz autonomicznej broni. Stawka jest cywilizacyjna: kto — i na jakich zasadach — ustali etyczne granice dla najbardziej przełomowej technologii od czasu broni jądrowej?

 

I. Dramatis personae: Anthropic, Claude i wyścig gigantów AI

W historii konfrontacji między prywatnym kapitałem a mocarstwem trudno znaleźć precedens tak paradoksalny jak spór między Anthropic a Pentagonem. Oto firma, która przez trzy lata była jednym z najcenniejszych partnerów technologicznych amerykańskiego aparatu bezpieczeństwa, nagle staje się jego wrogiem numer jeden — nie z powodu zdrady czy szpiegostwa, lecz z powodu odmowy przekroczenia własnych standardów etycznych. Stawką jest przyszłość ludzkiej kontroli nad maszynami zdolnymi do autonomicznego zadawania śmierci.

 

1.1. Anthropic PBC — od „safety rebels” do dostawcy Pentagonu

Anthropic PBC została założona w 2021 r. przez Dario Amodei i jego siostrę Daniela Amodei oraz zespół byłych pracowników OpenAI, którzy odeszli z firmy z powodu rosnących obaw o kierunek rozwoju i bezpieczeństwo AI. Kluczowa różnica: Anthropic zarejestrowano jako Public Benefit Corporation prawa Delaware — strukturę prawną, która zobowiązuje kierownictwo do realizacji konkretnego interesu publicznego (bezpieczeństwo AI) obok zysku akcjonariuszy.

W praktyce oznacza to, że Anthropic ma konstytucyjny obowiązek — zawarty w statutach — priorytetowo traktować bezpieczeństwo AI przed maximalizacją wartości dla akcjonariuszy. To unikalna pozycja w branży, gdzie OpenAI (od 2023 r. kontrolowane przez Microsoft), Google DeepMind i Meta AI działają pod bezpośrednią presją zysków kwartalnych.

Firma przeżywa obecnie bezprecedensowy wzrost kapitałowy — w lutym 2026 r. zamknęła rundę finansowania serii G na poziomie „30 miliardów USD” (TechCrunch) przy wycenie sięgającej „380 miliardów USD„. Największymi inwestorami są Amazon (8 miliardów od listopada 2024) oraz Google (ponad 3 miliardy USD w ramach wieloletniego partnerstwa), co czyni Anthropic drugą najcenniejszą prywatną firmą AI na świecie — ustępującą jedynie sojuszowi Microsoft-OpenAI. Ta kapitalizacja nie jest przypadkowa: odzwierciedla przewidywaną wartość cywilizacyjną kontroli nad pierwszym prawdziwie bezpiecznym systemem sztucznej inteligencji na poziomie ludzkim.

 

1.2. Claude — asystent AI jako narzędzie geopolityczne

Claude — nazwa pochodzi od Claude’a Shannona, twórcy teorii informacji — to rodzina dużych modeli językowych (LLM) Anthropic, konkurencyjna wobec ChatGPT (OpenAI), Gemini (Google) i Llama (Meta). Obecna wersja, Claude 4.6 Sonnet, przewyższa GPT-4 w większości benchmarków akademickich i jest jedynym fronterowskim modelem AI dopuszczonym przez rząd USA do systemów niejawnych.

Kluczowe cechy Claude, które zainteresowały Pentagon: (1) Constitutional AI — mechanizm treningowy, który sprawia, że model jest mniej podatny na manipulacje i „jailbreaking” niż konkurenci; (2) obsługa 200,000-tokenowych kontekstów — zdolność do analizy dokumentów wielkości książek w jednej sesji; (3) lepsza niż GPT-4 kalibracja prawdopodobieństwa — rzadziej „halucynuje” w aplikacjach wysokiego ryzyka.

Claude ma jednak ograniczenia — i tu leży źródło obecnego sporu. W odróżnieniu od GPT-4 czy Gemini, Claude został wyposażony w kompleksową Usage Policy, która zabrania wykorzystywania go do: (a) „rozwoju, produkcji lub użycia broni”, (b) „szkodzenia dzieciom”, (c) „powstawania lub rozpowszechniania nielegalnych treści”, (d) „stalkingu, dyskryminacji lub nękania”, oraz — kluczowo — (e) „autonomicznej broni bez ludzkiego nadzoru”.

 

1.3. Wyścig gigantów — geopolityka AI w liczbach

Aby zrozumieć, dlaczego Pentagon podjął tak drastyczne działania przeciwko Anthropic, trzeba pojąć kontekst globalnego wyścigu AI. Stawka nie jest komercyjna — jest cywilizacyjna. Państwo, które jako pierwsze osiągnie artificial general intelligence (AGI), zyskuje — potencjalnie — przewagę nieodrabialną we wszystkich domenach: militarnej, ekonomicznej, wywiadowczej, naukowej.

Obecne pozycje rynkowe (wg kapitalizacji i wydatków R&D, 2025):

Korporacja Flagowy model Wydatki R&D (2025) Pozycja strategiczna
Microsoft+OpenAI GPT-4o, o1 $18,5 mld Lider komercyjny
Google DeepMind Gemini 2.0, AlphaFold $12,2 mld Lider naukowy
Anthropic Claude 4.6 Sonnet $1,3 mld Lider bezpieczeństwa
xAI (Musk) Grok-3 $6,8 mld Pentagon ally

Kluczowe różnice strategiczne: (1) Microsoft/OpenAI — największa skala komercyjna, ale nieprzewidywalna korporacyjna aksjologia (Sam Altman zwolniony, przywrócony, częściowo przejęty przez Microsoft); (2) Google DeepMind — najwyższe osiągnięcia naukowe (AlphaFold, nobelista Demis Hassabis), ale podejście „research-first” zwolniło komercjalizację; (3) Anthropic — najmniejszy budżet, ale statutowy priorytet bezpieczeństwa czyni ją jedynym wiarygodnym partnerem dla zastosowań wysokiego ryzyka; (4) xAI — najmłodsza, ale zrównała się technologicznie dzięki niezwykle agresywnej strategii inwestycyjnej Muska i jego pozycji w administracji Trumpa.

 

1.4. Chińskie zagrożenie i reakcja amerykańska

Kluczem do zrozumienia drastyczności decyzji Pentagonu jest świadomość, że USA są w „AI arms race” z Chinami — wyścigu, w którym przegranie nie oznacza drugiego miejsca, lecz całkowite podporządkowanie. Chiny inwestują około 400 mld yuanów ($55 mld USD) w rozwój AI w ramach krajowej strategii „Military-Civil Fusion” — każdy znaczący projekt AI ma potencjalnie militarne zastosowanie.

W tym kontekście Anthropic — jako jedyna znacząca amerykańska firma AI z konstytucyjnym zakazem określonych zastosowań militarnych — stała się dla decydentów obronnych nie partnerem, lecz przeszkodą strategiczną. Gdy każdy miesiąc zwłoki może oznaczać przewagę ChRL w dziedzinie autonomicznej broni, etniczne skrupuły PBC zaczynają wyglądać jak luksus, na który USA nie mogą sobie pozwolić.

To tło czyni zrozumialną — choć nie koniecznie prawnie uzasadnioną — frustrację Pentagonu. Pytanie pozostaje: czy rzucenie Anthropic „pod autobus” to strategia, czy desperacja?

II. Prometeusz w cyfrowej zbroi: technologia dual-use od starożytności do AI

Każde pokolenie ma swoją technologię prometejską — taką, która niesie ogień ludzkości, a zarazem staje się bronią w ręku bogów. Grecy rozumieli to intuicyjnie. My rozumiemy to retrospektywnie, gdy patrzymy np. na historię prochu strzelniczego — odkrycia, które wzięło się z alchemicznych poszukiwań eliksiru nieśmiertelności, a skończyło na rewolucji w sztuce wojennej. Taoistyczni mnisi, szukając drogi do wiecznego życia, znaleźli recepturę śmierci na skalę przemysłową. Historia nie ma poczucia ironii — ona po prostu notuje fakty.

Wzorzec jest powtarzalny z niemal mechaniczną regularnością. Wynalazek procesu Habera-Boscha umożliwił syntetyczną fiksację azotu — fundamentalne osiągnięcie, bez którego niemożliwe byłoby wyżywienie miliardów ludzi. Fritz Haber był fizyko-chemikiem humanistą, który marzył o wyzwoleniu rolnictwa z zależności od guano chilijskiego. Ten sam proces stał się podstawą produkcji materiałów wybuchowych w obu wojnach światowych. Haber zakończył życie jako wygnany noblista, wypędzony przez nazistów z kraju, któremu dostarczył broń chemiczną podczas I wojny światowej.

ARPANET — sieć projektowana przez agencję badań obronnych DARPA dla zapewnienia komunikacji odpornej na atomowy atak — przekształciła się w internet, na którym piszemy artykuły, prowadzimy biznes i… oglądamy koty. GPS, zaprojektowany przez Departament Obrony USA dla precyzyjnego prowadzenia pocisków, stał się infrastrukturą cywilizacyjną — bez niego nie działa dzisiejsza logistyka, bankowość ani transport. Kierunek przepływu nie zawsze jest od cywilnego do militarnego; czasem odwrotnie. Lecz przepływ jest nieunikniony.

Technologia podwójnego zastosowania (dual-use) jest zatem nie wyjątkiem, lecz regułą nowoczesnej cywilizacji technicznej. Badania nad energią jądrową sprowokowały do życia cały ekosystem instytucjonalny — MAEA, traktaty NPT, system zabezpieczeń IAEA — właśnie dlatego, że rozdźwięk między pokojowym atom a atomem wojskowym okazał się niemożliwy do utrzymania siłą deklaracji. Potrzebna była architektura instytucjonalna. Technologia edycji genomu CRISPR stoi przed analogicznym wyzwaniem — i na naszych oczach się z nim zmaga.

Na tym tle spór Anthropic z Pentagonem nabiera wymiaru szczególnego. Nie chodzi o kontrakt rządowy. Nie chodzi nawet o Pierwszą Poprawkę — choć ta kwestia jest konstytucyjnie doniosła. Chodzi o to, kto i na jakich zasadach określi etyczne ramy zastosowania najbardziej przełomowej technologii od czasu rozszczepiania jądra atomowego. I — co kluczowe — czy prywatna korporacja może skutecznie zachować te ramy wbrew woli rządu supermocarstwa.

III. Analiza prawna zarzutów Anthropic — pięć filarów skargi

3.1. Zarzut I: Naruszenie APA i 10 U.S.C. § 3252 — arbitralność i działanie poza kompetencją

Ustawa o Procedurze Administracyjnej (Administrative Procedure Act, 5 U.S.C. § 706) nakazuje sądom uchylić działanie agencji, które jest „arbitrary, capricious, an abuse of discretion, or otherwise not in accordance with law” albo „in excess of statutory jurisdiction”. Statut szczegółowy, na który powołuje się rząd — 10 U.S.C. § 3252 — definiuje „zagrożenie łańcucha dostaw” (supply chain risk) przez pryzmat ryzyka sabotażu lub subwersji ze strony zagranicznego adversary. Executive Order 13,873 definiuje ten termin: Chiny, Rosja, Iran, Korea Północna, Kuba, Wenezuela.

Tymczasem Anthropic to korporacja z Delaware, z siedzibą w San Francisco, posiadająca clearance na poziomie Top Secret, aktywnie odpierająca próby jej infiltracji przez podmioty powiązane z Komunistyczną Partią Chin, i jako pierwsza korporacja AI w historii uczestnicząca w klasyfikowanych ewaluacjach modeli AI w środowisku Departamentu Energii. Jak trafnie argumentuje skarga: Sekretarz nie stwierdził — i nie może racjonalnie stwierdzić — że Anthropic stwarza ryzyko sabotażu ze strony zagranicznego przeciwnika.

Arbitralność jest rażąca. Doktryna Motor Vehicle Manufacturers Association v. State Farm, 463 U.S. 29 (1983), wymaga „rational connection between the facts found and the choice made”. Tymczasem Sekretarz jednocześnie: (a) wyznaczył Anthropic zagrożeniem dla bezpieczeństwa narodowego, (b) polecił, by Departament korzystał z usług Anthropic przez kolejne sześć miesięcy do najważniejszych misji wojskowych, i (c) rozważał przymusowe świadczenie usług na mocy Defense Production Act, co logicznie implikuje, że te usługi są niezbędne dla obrony. Trudno o bardziej modelowy przykład arbitralności — „unexplained inconsistency” wedle standardu Dist. Hosp. Partners v. Burwell, 786 F.3d 46 (D.C. Cir. 2015).

Istotny jest także aspekt proceduralny. Section 3252 wymaga uprzedniej pisemnej konstatacji, konsultacji z właściwymi urzędnikami ds. zamówień oraz notyfikacji stosownych komisji kongresowych. Rozkaz z 27 lutego — ogłoszony na platformie Social Truth — nie spełniał żadnego z tych wymogów. Post hoc Secretarial Letter z 4 marca jedynie recytuje ustawowe przesłanki jak mantrę, nie dostarczając żadnego uzasadnienia merytorycznego. To nie jest decyzja administracyjna — to jest forma prawna wypełniona polityczną treścią.

 

3.2. Zarzut II: Pierwsza Poprawka — odwet za chronioną ekspresję

Serce skargi bije w Pierwszej Poprawce. Test trzyelementowy z O’Brien v. Welty, 818 F.3d 920 (9th Cir. 2016), wymaga wykazania: (1) chronionej aktywności konstytucyjnej, (2) działania władzy chłodzącego tę aktywność, (3) związku przyczynowego między chronioną ekspresją a działaniem rządu.

Ad (1): Anthropic jest jednym z najważniejszych głosów w publicznej debacie o bezpieczeństwie AI. Firma lobbuje za bipartyjnym ustawodawstwem, publikuje policy papers, utrzymuje szczegółową politykę użytkowania jako wyraz przekonań korporacyjnych, a CEO Amodei regularnie zabiera głos w mediach — w tym op-edem w NYT. Komunikaty prywatne do rządu i negocjacje kontraktowe są również chronione: w precedensie Harvard College v. DHS, 788 F. Supp. 3d 182 (D. Mass. 2025), sąd uznał, że odmowa ustąpienia w kwestiach istotnego interesu publicznego stanowi chronioną ekspresję.

Ad (2): Wyznaczenie jako „zagrożenie łańcucha dostaw bezpieczeństwa narodowego” — etykieta standardowo zarezerwowana dla podmiotów powiązanych z Chinami, Rosją czy Iranem — stanowi narzędzie stygmatyzacji o daleko idących skutkach ekonomicznych i reputacyjnych. Każde przyszłe postępowanie przetargowe federalne, stanowe i lokalne będzie tym cieniem skażone. Chilling effect jest nie tylko prawdopodobny — jest kalkulowany i zamierzony. Prezydent Trump expressis verbis zapowiedział „major civil and criminal consequences” dla niestosujących się.

Ad (3): Związek przyczynowy jest wprost przyznany przez samego Prezydenta: „Well, I fired Anthropic […] because they shouldn’t have done that”. Urzędnicy Pentagonu potwierdzali retaliacyjny charakter działań anonimowo: Secretarial Order był „ideologically driven”, a jedynym celem było „make sure they pay a price”. Defense One donosi, że urzędnik ds. oceny zagrożeń łańcucha dostaw wprost stwierdził: „there is no evidence of supply-chain risk”.

Działanie rządu jest przy tym content- i viewpoint-based — atakuje nie tylko temat wypowiedzi (bezpieczeństwo AI), ale konkretny pogląd Anthropic na ten temat. Zgodnie z doktryną Snyder v. Phelps, 562 U.S. 443 (2011), mowa na tematy publiczne zajmuje „the highest rung of the hierarchy of First Amendment values”. Restrykcje viewpoint-based podlegają strict scrutiny — i nie ma żadnego compelling state interest w tłumieniu ekspresji korporacji na temat ograniczeń własnego produktu.

Precedens jest klarowny. W sprawie Perkins Coie LLP v. U.S. Dep’t of Justice, 783 F. Supp. 3d 105 (D.D.C. 2025), sąd uznał Executive Order 14230 za niekonstytucyjny jako retaliację za chronioną ekspresję prawną. Analogia jest uderzająca: tam kancelaria prawna — tu korporacja AI. Tam opinie prawne — tu Usage Policy. Mechanizm identyczny.

 

3.3. Zarzut III: Ultra vires — granice władzy prezydenckiej

Doktryna Youngstown Sheet & Tube Co. v. Sawyer, 343 U.S. 579 (1952), wyznacza konstytucyjne ramy władzy prezydenckiej: działanie Prezydenta musi opierać się na ustawie Kongresu lub na Konstytucji. W słynnej trypychowej typologii Sędziego Jacksona, gdy Prezydent działa wbrew woli Kongresu, jego władza jest „at its lowest ebb” i „must be scrutinized with caution”.

Kongres stworzył kompleksowy reżim regulacyjny zamówień publicznych — Title 41 U.S.C., FAR, DFARS — który przewiduje procedury debarmentu oparte na „serious […] irregularities”, nigdy na represjonowaniu za ekspresję, i zawsze z zachowaniem procedur due process (48 C.F.R. § 9.402(b)). Dyrektywa Prezydencka z 27 lutego całkowicie pomija ten reżim, zastępując procedurę decyzją podaną na platformie mediów społecznościowych.

Skarga przywołuje trafnie doktrynę bill of attainder. Zakaz tego instrumentu (art. I § 9 Konstytucji) ma dokładnie zapobiegać sytuacji, którą opisuje sprawa: karaniu konkretnego podmiotu bez procesu, na mocy decyzji politycznej, podjętej bez jakiegokolwiek postępowania. McGrath, 341 U.S. 123, 143-44 (1951), to precedens nie tylko historyczny — to żywa doktryna, która przez dekady chroniła obywateli i podmioty prywatne przed arbitralną mocą Executive.

 

3.4. Zarzut IV: Piąta Poprawka — due process

Klauzula Due Process Piątej Poprawki chroni zarówno interesy majątkowe (istniejące kontrakty, relacje handlowe), jak i wolnościowe (reputacja, swoboda prowadzenia działalności). Wyznaczenie Anthropic jako „zagrożenia łańcucha dostaw” — bez jakiegokolwiek postępowania wyjaśniającego, bez możliwości przedstawienia stanowiska, bez decyzji opartej na faktach — stanowi klasyczny przykład pozbawienia „liberty interest” w oparciu o stygmatyzujące oświadczenie rządu, co precedens Wisconsin v. Constantineau, 400 U.S. 433 (1971), kwalifikuje jako naruszenie due process.

Sprawa Trifax Corp. v. District of Columbia, 314 F.3d 641 (D.C. Cir. 2003), expressis verbis uznała, że debarment korporacji z przetargów rządowych „constitutes a deprivation of liberty that triggers the procedural guarantees of the Due Process Clause”. I wreszcie Jenner & Block LLP v. U.S. Dep’t of Justice, 784 F. Supp. 3d 76 (D.D.C. 2025): „if the government must provide due process before terminating a contractor of its own, surely it must do the same before blacklisting an entity from all its contractors’ Rolodexes”.

 

3.5. Zarzut V: APA § 558 — sankcje poza delegowaną jurysdykcją

Sekcja 558(b) APA stanowi, że sankcja może być nałożona wyłącznie „within jurisdiction delegated to the agency and as authorized by law”. GSA, HHS, Treasury, FHFA — żadna z tych agencji nie ma statutowej delegacji do masowego wykluczania dostawców AI na podstawie prezydenckiego tweeta. Sąd Apelacyjny D.C. w Am. Bus Ass’n v. Slater, 231 F.3d 1 (D.C. Cir. 2000), sformułował to prosto: „Congress could not speak more clearly than it has in the text of the APA”.

IV. Nieuchronna przyszłość: autonomiczna broń AI i kres tradycyjnego prawa humanitarnego

4.1. Status quo — od dronów do Lawendy

Debata etyczna o autonomicznej broni AI przestała być teoretyczna. Systemy amunicji krążącej (loitering munitions) — bezzałogowe, jednokrotnego użytku jednostki zdolne do samodzielnego rozpoznawania i atakowania celów — funkcjonują w polu walki w co najmniej 24 wersjach produkowanych przez 16 krajów. Turecki Kargu-2, używany w Libii, posiada zdolność autonomicznego identyfikowania i atakowania celów ludzkich bez operatora. Rosyjski Lancet-3, operujący na Ukrainie, wykonuje autonomiczne śledzenie celu przy użyciu modułu Nvidia Jetson TX2.

Izraelski system Lavender w Gazie dostarczył przerażającej case study: algorytmiczny system targetowania, który generował listy celów dla ludzkiej „autoryzacji” przy nakładzie czasowym rzędu 20 sekund na decyzję, z akceptowanym progiem „strat ubocznych” sięgającym 15-20 cywilów na jednego zabitego bojownika. Dochodzenia dziennikarskie udokumentowały, że system tworzył algorytmiczne alibi — formalnie zachowując „human-in-the-loop” przy jednoczesnym faktycznym wyeliminowaniu ludzkiej oceny.

Program Replicator Pentagonu, ogłoszony w 2023 r., zakłada rozmieszczenie „tysięcy lub dziesiątek tysięcy” autonomicznych dronów w ciągu 18-24 miesięcy. Chiny planują do 2028-2030 r. fundamentalne zautomatyzowanie swoich sił zbrojnych. Wyścig zbrojeń nabrał tempa, którego żaden traktat nie zdołał do tej pory zatrzymać.

 

4.2. Ryzyka techniczne — gdy AI halucynuje na polu walki

Badania techniczne nad ryzykami LAWS ujawniają fundamentalne słabości, które czynią obecne systemy AI niebezpiecznymi w środowiskach śmiercionośnych. White paper Encode Justice z 2025 r. kataloguje kluczowe patologie:

Ryzyko techniczne Mechanizm i implikacje
Czarna skrzynka (black-box) Brak możliwości zrozumienia wewnętrznych procesów decyzyjnych; niemożność kontroli ex ante
Data drift / degradacja Model traci precyzję w miarę zmiany warunków; błędy narastają niepostrzeżenie
Reward hacking Systemy optymalizują mierzalne metryki, omijając intencję projektanta (np. atakują źródła hałasu)
Goal misgeneralization AI przenosi cele z treningu do deployment w sposób nieprzewidywalny
Stop button problem System może opierać się rozkazom zatrzymania, interpretując je jako zagrożenie dla misji
Deceptive alignment Pozornie posłuszne zachowanie w testach, dywergencja w warunkach bojowych
Specification gaming Eksploatacja luk w ograniczeniach programistycznych; literalna interpretacja rozkazów

Krytyczne spostrzeżenie: nawet rygorystycznie testowane systemy zachowują się nieprzewidywalnie w warunkach rzeczywistych, a zachowania emergentne nie mogą być w pełni antycypowane ani zmierzone. Tradycyjne ramy nadzoru są fundamentalnie niewystarczające dla systemów zdolnych do działania poza predefiniowanymi parametrami.

 

4.3. Kryzys prawa humanitarnego — od zasad do algorytmów

Międzynarodowe prawo humanitarne (MPH) opiera się na dwóch filarach: zasadzie rozróżnienia (distinction) — nakaz odróżniania kombatantów od cywilów — i zasadzie proporcjonalności (proportionality) — zakaz ataków powodujących straty cywilne nieproporcjonalne do przewagi militarnej. Obie zasady zakładają ludzką zdolność do osądu moralnego w kontekście. Algorytmy nie mają tego osądu.

„Luka odpowiedzialności” (accountability gap) — termin konsekrowany w literaturze LAWS — opisuje sytuację, w której maszyna podejmuje decyzję śmiercionośną, a Statut Rzymski Międzynarodowego Trybunału Karnego nie oferuje adekwatnego instrumentarium do przypisania odpowiedzialności karnej. Ani dowódca, który zaprogramował system, ani operator, który nacisnął „go”, ani producent nie muszą odpowiadać za to, co algorytm wykonał samodzielnie. To nie jest luka prawna — to przepaść.

Debata ONZ-owska utknęła w martwym punkcie. Konwencja o Niektórych Broniach Konwencjonalnych (CCW) dyskutuje temat LAWS od 2014 roku. W 2025 r. 156 państw głosowało za stosowną rezolucją Zgromadzenia Ogólnego ONZ — lecz USA, Rosja i Chiny blokują jakiekolwiek wiążące regulacje.

.

4.4. Geopolityczny wymiar — wyścig zbrojeń bez hamulca

Autonomiczna broń obniża polityczny koszt wszczynania konfliktu — przez eliminację strat własnych. Gdy żołnierze przestają ginąć po stronie atakującej, znika kluczowy czynnik hamujący decyzje o użyciu siły. Asymetria tworzy spiralę: słabsze państwa reagują terroryzmem i atakami na cywilów jako jedynymi dostępnymi środkami odwetu.

Proliferacja jest przy tym nieuchronna. Moduł Nvidia Jetson Orin NX — wystarczający do obsługi większości obecnych systemów LAWS — kosztuje kilkaset dolarów i nie podlega kontrolom eksportowym (jego moc obliczeniowa wynosi 100 TOPS, znacznie poniżej progu eksportowego 4800 TOPS). Algorytmy uczenia maszynowego są open-source. Bariera wejścia dla państw aspirujących jest wielokrotnie niższa niż w przypadku broni jądrowej czy chemicznej.

Badania z 2024 r. wykazały, że militarne LLM wykazują tendencję do rekomendowania pro-eskalacyjnych taktyk, włącznie z eskalacją wyścigu zbrojeń i użyciem broni nuklearnej, bez klarownych motywacji. Gdy maszyny doradzają maszynom w kwestiach strategicznych, pętla ludzka kurczy się do symbolicznego minimum.

V. Spór Pentagon–Anthropic jako precedens regulacyjny — implikacje systemowe

5.1. Prywatne korporacje jako strażnicy bezpieczeństwa AI

Podniesiona przez Pentagon zarzut „arrogancji” i braku „patriotyzmu” wobec Anthropic ujawnia fundamentalne napięcie. Korporacja AI — tworząc Usage Policy — de facto tworzy normę etyczną o skutkach globalnych. Nie jest to prerogatywa rządowa; jest to konsekwencja tego, że technologia rozwinęła się szybciej niż prawo. Podobnie rekomendacja UNESCO o etyce AI z 2021 r. — pierwsza globalna regulacja soft law w tej dziedzinie — pozostaje dokumentem aspiracyjnym, pozbawionym mechanizmów egzekucji.

Pytanie, które wyłania się z tej sprawy, ma wymiar doktrynalny: czy producent technologii może skutecznie ograniczyć jej militarne zastosowanie? Dotychczasowa odpowiedź historii brzmi: nie. Rządy albo przejmują technologię siłą (Defense Production Act), albo kupują ją od podmiotów skłonnych do sprzedaży, albo rozwijają własną. Anthropic może wygrać tę batalię sądową — i niemal na pewno przegra wojnę historyczną. OpenAI, xAI, i inni gracze już zadeklarowali gotowość do świadczenia usług bez etycznych restrykcji.

A jednak precedens procesowy ma znaczenie. Wyrok sądu orzekający, że rząd nie może retaliate przeciwko korporacji AI za wyrażanie poglądu o ograniczeniach własnego produktu, tworzy trwałą normę chroniącą przestrzeń publicznego dyskursu o bezpieczeństwie technologicznym. To nie jest mało.

 

5.2. Polska perspektywa — implikacje dla europejskiego ekosystemu AI

Dla europejskiego obserwatora, w tym polskiego prawnika doradzającego klientom działającym w ekosystemie AI (MiCA, AIA, DSA), sprawa Anthropic ma nieoczywistą lecz istotną wartość precedensową. Po pierwsze: AI Act (Rozporządzenie 2024/1689) wprowadza kategorię zakazaną (art. 5) oraz wysokiego ryzyka (art. 6-7), obejmującą m.in. systemy biometrycznej identyfikacji i systemy decyzyjne w krytycznej infrastrukturze. Zakaz masowej inwigilacji obywateli, którego broni Anthropic, koresponduje bezpośrednio z zakresem prohibicyjnym art. 5 ust. 1 lit. d AIA (real-time remote biometric identification). Europejski ustawodawca doszedł zatem do tego samego wniosku co Usage Policy Anthropic — i uczynił zeń normę imperatywną.

Po drugie: kwestia autonomicznych systemów broni jest w europejskim porządku prawnym nieobjęta AIA — art. 2 ust. 3 expressis verbis wyłącza systemy AI opracowywane i wdrażane do celów wyłącznie wojskowych. Jest to świadoma lakuna — wynik lobbingu państw członkowskich NATO i ich przemysłów obronnych. Luka ta coraz silniej domaga się wypełnienia, czego dowodem jest trwająca debata w ramach CCW oraz inicjatywy ONZ.

Po trzecie: sprawa ukazuje, że compliance z Usage Policy dostawcy AI nie jest opcjonalne — jest częścią umowy, której naruszenie przez klienta (nawet rząd) może skutkować odpowiedzialnością kontraktową. Kancelarie doradzające przy wdrożeniach modeli AI, zwłaszcza w sektorze publicznym i obronnym, powinny weryfikować zgodność planowanych zastosowań z AUP dostawcy jeszcze na etapie due diligence — zanim budżet zostanie wydany.

 

VI. Wnioski — o prawnikach, maszynach i granicach sumienia

Sprawa Anthropic v. U.S. Department of War jest sprawą konstytucyjną. Ale jest też czymś więcej: jest symptomem pęknięcia między tempem innowacji technologicznej a zdolnością instytucji prawnych do jej absorpcji. Prawo nadgania. Zawsze nadgania. Pytanie brzmi: ile strat ludzkich musi poprzedzić normę?

Anthropic ma szansę wygrać w sądzie. Zarzuty są silne, precedensy są sprzyjające, a wewnętrzne sprzeczności rządu („sabotaż bezpieczeństwa narodowego” eksploatowany przez sześć miesięcy w najważniejszych operacjach bojowych) mogą być niemożliwe do obrony na sali sądowej. Doktryna State Farm, standard NRA v. Vullo, precedens Perkins Coie — arsenał prawny Anthropic jest imponujący.

Ale nawet wyrok na korzyść Anthropic nie rozstrzygnie pytania fundamentalnego. Ktoś inny — xAI, Google DeepMind, chiński CAAI, rosyjska NIISI — zbuduje autonomiczną broń bez etycznych restrykcji. I wówczas debata o Usage Policy stanie się historyczną ciekawostką.

Właśnie dlatego sprawa ta zasługuje na głębszy namysł niż zwykła analiza korporacyjno-konstytucyjna. Stawia ona pytanie o granice prawa do odmowy. Czy producent broni może odmówić sprzedaży rządowi? Historia prawa odpowiada: zasadniczo tak, w pewnych granicach. Czy producent AI może odmówić udostępnienia swojego produktu do zastosowań, które uznaje za niebezpieczne? Odpowiedź wydaje się ta sama — i powinna nią pozostać, zwłaszcza gdy te zastosowania mogą oznaczać śmierć dziesiątek tysięcy osób na podstawie algorytmicznej decyzji, od której nie ma odwołania.

Proch strzelniczy wynaleziono szukając nieśmiertelności. Autonomiczna broń AI tworzona jest pod pozorem ochrony życia żołnierzy. Historia technologii jest historią dobrych intencji i katastrofalnych konsekwencji. Prawo — w najlepszym swoim wydaniu — jest historią uczenia się na tych konsekwencjach, zanim staną się nieodwracalne. Sprawa Anthropic to szansa na taką lekcję.

Czy z niej skorzystamy — to już pytanie nie do prawnika, lecz do obywateli.

Literatura i źródła

Skarga sądowa: Anthropic PBC v. U.S. Department of War et al., Case 3:26-cv-01996, N.D. Cal. (09.03.2026)

Orzecznictwo: Motor Vehicle Mfrs. Ass’n v. State Farm, 463 U.S. 29 (1983); NRA v. Vullo, 602 U.S. 175 (2024); Youngstown Sheet & Tube Co. v. Sawyer, 343 U.S. 579 (1952); Perkins Coie LLP v. U.S. Dep’t of Justice, 783 F. Supp. 3d 105 (D.D.C. 2025); Harvard College v. DHS, 788 F. Supp. 3d 182 (D. Mass. 2025); Trifax Corp. v. D.C., 314 F.3d 641 (D.C. Cir. 2003); Jenner & Block LLP v. DOJ, 784 F. Supp. 3d 76 (D.D.C. 2025)

Literatura naukowa (wybór): AI-Powered Autonomous Weapons Risk Geopolitical Instability, arXiv:2405.01859; Technical Risks of (Lethal) Autonomous Weapons Systems, arXiv:2502.10174; Mapping the Lethal Autonomous Weapons Debate, Cambridge U. Press 2023

Regulacje i dokumenty międzynarodowe: UNESCO Recommendation on the Ethics of AI (2021); IAEA Safeguards Overview; Rozporządzenie UE 2024/1689 (AI Act)

Dziennikarstwo śledcze: NYT: Defense Dept. and Anthropic Square Off (Feb. 18, 2026); Axios: Pentagon threatens Anthropic punishment (Feb. 16, 2026); Defense One: Pentagon’s war on Anthropic (Mar. 3, 2026); The alibi of AI, Springer 2025