OpenAI oficjalnie związało się z amerykańskim aparatem obronnym. Firma, która jeszcze kilka lat temu zabraniała wykorzystywania swoich modeli do celów wojskowych, podpisała umowę z Departamentem Obrony Stanów Zjednoczonych. To nie drobna korekta kursu. To zwrot o sto osiemdziesiąt stopni.
Z laboratorium non-profit na pokład Pentagonu
Kiedy OpenAI powstawało w 2015 roku, jego założyciele mówili o bezpiecznej sztucznej inteligencji służącej całej ludzkości. Organizacja miała charakter non-profit. Jej statut wyraźnie wskazywał, że technologia nie powinna trafiać w ręce tych, którzy mogliby ją wykorzystać do krzywdzenia ludzi. W regulaminie użytkowania modeli GPT aż do stycznia 2024 roku widniał zapis zabraniający zastosowań militarnych.
Potem zapis zniknął. Cicho, bez wielkiego ogłoszenia. A kilka miesięcy później pojawiło się to, co OpenAI nazwało umową z Departamentem Wojny – tak, firma użyła właśnie tej historycznej nazwy, Department of War, zamiast współczesnej Department of Defense. Zabieg retoryczny? Może. Ale trudno nie zauważyć ironii, gdy organizacja założona w imię bezpieczeństwa ludzkości świadomie odwołuje się do wojennej nomenklatury.
Co dokładnie obejmuje umowa OpenAI z wojskiem USA
Szczegóły kontraktu nie zostały ujawnione w całości, ale z opublikowanego komunikatu wynika kilka konkretów. OpenAI ma dostarczać Pentagonowi narzędzia oparte na dużych modelach językowych – przede wszystkim do przetwarzania danych wywiadowczych, analizy dokumentów oraz wspomagania procesów decyzyjnych. Nie chodzi – przynajmniej oficjalnie – o systemy uzbrojenia ani autonomiczne drony. Chodzi o biurka, ekrany i analityków, którzy zamiast przekopywać się przez tysiące stron raportów, dostaną asystenta AI zdolnego wyciągnąć z nich istotne informacje w kilka sekund.
Brzmi niewinnie. Ale granica między analizą danych a wspieraniem operacji bojowych jest cienka. Jeśli model AI wskaże lokalizację potencjalnego celu na podstawie analizy zdjęć satelitarnych i przechwyconych komunikatów – czy to jeszcze analiza, czy już udział w łańcuchu zabijania?
Dlaczego teraz i dlaczego Pentagon potrzebuje OpenAI
Odpowiedź ma dwa wymiary. Pierwszy to technologiczny wyścig z Chinami. Pekin inwestuje miliardy w militarne zastosowania AI, a Departament Obrony USA otwarcie przyznaje, że nie nadąża z wdrażaniem nowych technologii. Biurokracja Pentagonu, zaprojektowana pod zamówienia czołgów i lotniskowców, z trudem radzi sobie z kontraktami na oprogramowanie. Dlatego wojsko coraz chętniej sięga po gotowe rozwiązania komercyjne.
Drugi wymiar to pieniądze. OpenAI przeszło transformację z organizacji non-profit w firmę nastawioną na zysk. Kontrakty rządowe oznaczają stabilne, ogromne przychody. Sam Altman, dyrektor generalny firmy, potrzebuje funduszy na rozwój coraz większych modeli, a budżet obronny Stanów Zjednoczonych to ponad 800 miliardów dolarów rocznie. Jak podaje BBC, kontrakt OpenAI z Pentagonem wpisuje się w szerszy trend – firmy technologiczne z Doliny Krzemowej, które jeszcze niedawno protestowały przeciw współpracy z wojskiem, teraz kolejno podpisują umowy obronne.
Wystarczy przypomnieć, co stało się z projektem Maven w Google. W 2018 roku tysiące pracowników podpisało petycję, a firma ostatecznie wycofała się ze współpracy z Pentagonem przy analizie obrazów z dronów. Sześć lat później Google spokojnie pracuje nad kontraktami chmury obliczeniowej dla wojska. Opór się skończył.
Głosy krytyczne i obawy pracowników
Nie wszyscy w OpenAI przyjęli tę zmianę z entuzjazmem. Część pracowników – zwłaszcza tych pamiętających jeszcze misję założycielską – wyrażała niepokój. Ale po burzliwym roku 2023, kiedy zarząd próbował odwołać Altmana i przegrał, wewnętrzna opozycja straciła siłę. Firma ma teraz jasną hierarchię i jasny cel: dominacja na rynku AI.
Krytycy z zewnątrz podnoszą inne argumenty. Organizacje takie jak International Committee for Robot Arms Control od lat ostrzegają przed włączaniem komercyjnych systemów AI w struktury wojskowe. Ich zdaniem problem nie leży w samej technologii, ale w braku przejrzystości. Kiedy prywatna firma dostarcza armii narzędzia decyzyjne, kto odpowiada za błędne rekomendacje? Kto audytuje model? Kto weryfikuje, czy system nie halucynuje – bo modele językowe mają z tym znany problem – w kontekście, gdzie halucynacja może kosztować ludzkie życie?
Sztuczna inteligencja na polu walki
Warto zrozumieć, że AI już jest obecna na współczesnych polach walki. Izrael stosuje system zwany Lavender do typowania celów w Strefie Gazy. Ukraina wykorzystuje algorytmy do koordynacji dronów. Turcja testowała autonomiczne systemy bojowe w Libii.
OpenAI dołącza do gry. Firma twierdzi, że jej zaangażowanie będzie ograniczone do zastosowań defensywnych i analitycznych. Jak napisano w oficjalnym komunikacie: firma zobowiązuje się, że jej technologia nie będzie używana do bezpośredniego wyrządzania krzywdy ludziom. Ale definicja tego, co jest bezpośrednie, a co pośrednie, bywa elastyczna – zwłaszcza w czasie wojny.
Między etosem a kontraktem
Historia OpenAI to opowieść o zderzeniu idealizmu z rzeczywistością rynkową. Organizacja, która miała chronić ludzkość przed niebezpieczną AI, teraz dostarcza tę AI największej machinie wojennej na świecie. Można to czytać jako pragmatyzm – lepiej, żeby Pentagon korzystał z odpowiedzialnego dostawcy niż z przypadkowych rozwiązań. Można też czytać jako kapitulację.
Jedno jest pewne: decyzja zapadła i nie będzie cofnięta. Pieniądze z kontraktów obronnych popłyną w rozwój kolejnych modeli, które z kolei znajdą kolejne zastosowania – militarne i cywilne. To spirala, którą trudno zatrzymać, gdy już się rozkręci. Pytanie, które powinniśmy sobie zadawać, brzmi nie czy AI trafi na pole walki, ale kto i na jakich zasadach będzie kontrolował ten proces. Bo na razie odpowiedź jest niepokojąco prosta: nikt wystarczająco.
Więcej analiz dotyczących wpływu sztucznej inteligencji na kluczowe sektory znajdziesz w naszym serwisie poświęconym AI.






