Kontrakt wart setki milionów dolarów, dwa jasno sformułowane ograniczenia i decyzja rządu, która wywołała debatę o tym, kto w erze sztucznej inteligencji wyznacza granice jej użycia. Spór między firmą Anthropic a Pentagonem to nie tylko kwestia warunków umowy. To kolejny przykład zderzenia interesów i poglądów rządu i firm technologicznych w obszarze obronności.
Od lata 2025 roku model Claude, rozwijany przez firmę Anthropic, był wdrażany w wybranych systemach Departamentu Obrony USA, m.in. poprzez platformę Palantir w sieciach o podwyższonym poziomie bezpieczeństwa. W lipcu Pentagon podpisał z firmą kontrakt wart do 200 milionów dolarów, akceptując określone warunki korzystania z modelu.
Dario Amodei, współzałożyciel i dyrektor generalny Anthropic, od początku działalności firmy wskazywał dwie granice, których — jak podkreślał publicznie — spółka nie zamierza przekraczać. Po pierwsze: model nie może być wykorzystywany do masowej inwigilacji obywateli amerykańskich. Po drugie: nie może sterować w pełni autonomiczną bronią podejmującą decyzje o ataku bez udziału człowieka.
Amodei argumentował, że zastrzeżenia te mają charakter nie tylko etyczny, ale i techniczny. W jego ocenie obecne systemy AI nie osiągnęły poziomu niezawodności wymaganego w warunkach bojowych - że może strzelać do cywilów, własnych żołnierzy czy mylić cele. W odniesieniu do inwigilacji wskazywał natomiast na lukę między prawem a technologią.
Spór o zakres użycia
24 lutego 2026 roku sekretarz obrony Pete Hegseth miał zażądać — według relacji mediów — usunięcia wszelkich dodatkowych ograniczeń kontraktowych i udostępnienia modelu do „wszelkich zgodnych z prawem celów wojskowych”. Anthropic odmówiło.
Wkrótce potem administracja ogłosiła, że firma zostaje uznana za zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego, a agencjom federalnym wyznaczono sześciomiesięczny termin na zakończenie współpracy. Tego rodzaju klasyfikacja była dotąd stosowana głównie wobec podmiotów zagranicznych. Anthropic zapowiedziało kroki prawne, a Amodei określił decyzję jako nieproporcjonalną.
Z perspektywy Pentagonu sprawa wygląda inaczej. W wypowiedziach przedstawicieli resortu podkreślano, że Departament Obrony musi mieć możliwość korzystania z technologii w granicach obowiązującego prawa, bez dodatkowych, jednostronnie narzucanych ograniczeń. W logice państwa odpowiedzialnego za bezpieczeństwo narodowe prywatna firma nie powinna mieć de facto prawa weta wobec potencjalnych zastosowań wojskowych.
Badania i obawy
W tle sporu pojawiają się także badania dotyczące zachowań modeli AI w symulacjach konfliktów. Profesor Kenneth Payne z King’s College London przeprowadził eksperyment, w którym trzy modele językowe — w tym Claude — odgrywały role decydentów w scenariuszach eskalacyjnych z dostępem do broni nuklearnej. W 95 procentach symulacji modele decydowały się na użycie taktycznej broni jądrowej jako narzędzia nacisku.
Naukowcy sugerują, że AI po prostu nie podziela ludzkich tabu wokół broni nuklearnej. Częściowo dlatego, że nie odczuwa strachu, częściowo zaś dlatego, że jej dane treningowe zawierają zimnowojenną literaturę strategiczną, która traktuje taktyczne uderzenia nuklearne jako element konwencjonalnej eskalacji.
Badanie nie zostało jeszcze opublikowane w formie recenzowanego artykułu, a szczegóły metodologii nie są w pełni znane. Należy też pamiętać, że modele językowe generują odpowiedzi tekstowe w oparciu o wzorce danych, a nie podejmują realnych decyzji operacyjnych. Mimo to wyniki wpisują się w obawy części ekspertów: AI nie „odczuwa” ludzkich tabu i może traktować eskalację jako logiczną konsekwencję danych wejściowych.
OpenAI i podobne deklaracje
Kilka godzin po ogłoszeniu decyzji wobec Anthropic firma OpenAI poinformowała o podpisaniu własnej umowy z Departamentem Obrony dotyczącej wdrożeń w systemach o wysokim poziomie bezpieczeństwa. Szczegóły kontraktu nie są publiczne.
Publiczne deklaracje OpenAI zawierają podobne ograniczenia jak te formułowane przez Anthropic: brak zgody na masową inwigilację obywateli oraz brak wsparcia dla w pełni autonomicznej broni. Przedstawiciele firmy podkreślali jednak, że ich podejście opiera się na zgodności z obowiązującym prawem, a nie na dodatkowych zapisach kontraktowych.
Krytycy wskazują, że odwoływanie się wyłącznie do aktualnych przepisów może być niewystarczające, ponieważ prawo ewoluuje, a niektóre praktyki — takie jak masowy zakup danych i ich analiza — są formalnie dopuszczalne. Jednocześnie OpenAI sprzeciwiło się całkowitej blokadzie Anthropic, apelując o deeskalację sporu.
Konsekwencje biznesowe i reakcja użytkowników
Finansowe skutki dla Anthropic są złożone. Bezpośrednia strata kontraktu to nic w obliczu przychodów firmy prognozowanych na poziomie kilkunastu miliardów dolarów w tym roku. Większym zagrożeniem jest potencjalne odcięcie od setek klientów korporacyjnych będących jednocześnie dostawcami armii USA.
Ironicznie, na rynku konsumenckim Anthropic zyskuje. W sobotę po podpisaniu przez OpenAI umowy z Pentagonem Claude wspiął się na pierwsze miejsce w Apple App Store, wyprzedzając ChatGPT.
W mediach społecznościowych pojawił się trend określany jako „QuitGPT” — użytkownicy deklarowali rezygnację z subskrypcji w proteście przeciwko współpracy z wojskiem. Choć trudno ocenić jego realny wpływ finansowy, był on zauważalny w przestrzeni internetowej.
Historia i geopolityka
To nie pierwszy przypadek napięć między Doliną Krzemową a Pentagonem. W przeszłości pracownicy Google protestowali przeciw projektowi Maven, a współpraca Amazon z CIA wywoływała polityczne kontrowersje. Różnica polega na tym, że dziś AI staje się technologią o znaczeniu systemowym.
Spór ma również wymiar geopolityczny.
Chiny intensywnie rozwijają wojskowe zastosowania sztucznej inteligencji w ramach oficjalnych strategii modernizacji armii. Rosja i inne państwa również inwestują w autonomiczne systemy bojowe. Zwolennicy elastycznego podejścia argumentują, że w warunkach globalnej rywalizacji nadmierne samoograniczenie może osłabić pozycję USA. Przeciwnicy odpowiadają, że właśnie państwa demokratyczne powinny wyznaczać standardy, nawet jeśli konkurenci tego nie robią.
Kto wyznacza granice?
Spór między Anthropic a Pentagonem wykracza poza jeden kontrakt. Dotyczy pytania, które będzie powracać coraz częściej: czy granice zastosowań sztucznej inteligencji wyznacza państwo, działające w imię bezpieczeństwa, czy prywatne firmy, które ją tworzą i czują się współodpowiedzialne za skutki jej użycia?
Historia pokazuje, że praktyki uznawane w danym momencie za zgodne z prawem mogą stać się później przedmiotem sporów konstytucyjnych — czego przykładem była debata po ujawnieniach Edwarda Snowdena. Jednocześnie państwo odpowiada za bezpieczeństwo obywateli i nie może w pełni uzależniać kluczowych narzędzi od decyzji zarządów spółek. Spór nie zakończy się jednym wyrokiem, ale może wyznaczyć zasady współpracy państwa z firmami technologicznymi.
Jeszcze kilka lat temu takie scenariusze brzmiały jak fabuła powieści science fiction. Dziś są elementem realnej polityki bezpieczeństwa.