Podczas wystąpienia online Sam Altman wraz z Jakubem i Wojciechem, potwierdził skalę, o której jeszcze kilka miesięcy temu mówiło się w cicho. OpenAI planuje zbudować infrastrukturę o wartości 1,4 bln USD. W praktyce to ponad 30 gigawatów mocy obliczeniowej, czyli wystarczająco dużo, by zasilić równocześnie dziesiątki milionów serwerów AI, setki tysięcy akceleratorów GPU i całe środowisko treningowe przyszłych modeli.

W dalszej części, Altman mówi o ambitnym planie robotyzacji budowy infrastruktury i dojścia do „1 gigawata mocy tygodniowo”, co przy obecnych cenach infrastruktury (ok. 40–50 mld USD/GW) oznacza tempo inwestycji, którego w historii technologii jeszcze nie było.

Nie ma innej drogi do skalowania AI niż budowa nowej infrastruktury – globalnej, taniej i trwałej.
Sam Altman, CEO OpenAI
Źródło: YouTube
Polska elektrownia atomowa: 34 mld euro za 4 gigawaty
Rządowe szacunki mówią, że budowa pierwszej elektrowni jądrowej w Polsce (trzy bloki, ~4 GW) pochłonie ok. 34 mld euro, czyli w przybliżeniu 36 mld USD. W przeliczeniu daje to ok. 9 mld USD za 1 GW mocy elektrycznej.
Co ciekawe OpenAI wydaje ok. 47 mld USD za 1 GW mocy obliczeniowej.
Oznacza to, że każdy „gigawat AI” kosztuje ponad pięć razy więcej niż gigawat energii jądrowej.
| Porównanie | Polska elektrownia jądrowa | Infrastruktura OpenAI |
|---|---|---|
| Moc | 4 GW | 30 GW (mocy obliczeniowej) |
| Koszt całkowity | 36 mld USD | 1,4 bln USD |
| Koszt 1 GW | 9 mld USD | 47 mld USD |
| Relacja całkowita | 1× | ~39× droższe |
Źródła: Bankier.pl, Reuters.
Dlaczego OpenAI potrzebuje tyle energii i mocy
W przeciwieństwie do elektrowni, które wytwarzają energię, centra danych OpenAI tę energię pochłaniają i to w ogromnych ilościach. Każdy z planowanych ośmiu kompleksów w projekcie Stargate ma mieścić nawet 50 tysięcy układów Nvidia Blackwell, chłodzonych cieczą i połączonych światłowodowo z sieciami Microsoftu i Oracle.
Altman otwarcie mówi, że celem jest globalna sieć „intelektualnych elektrowni”, które nie produkują prądu, lecz „moc umysłową”, obliczenia potrzebne do treningu kolejnych generacji modeli.
Z punktu widzenia inżynierii: 30 GW mocy obliczeniowej to równowartość poboru energii całej Holandii. Dlatego OpenAI rozwija partnerstwa z producentami energii jądrowej, firmami od SMR (małych reaktorów modułowych) oraz z operatorami OZE.
„Budowa mocy obliczeniowej na taką skalę wymaga nowej infrastruktury energetycznej — nie da się tego zrobić w oparciu o stare sieci.” — cytat z analityka D.A. Davidson, Gil Luria (Reuters).
W liczbach: OpenAI kontra polski atom
| Wskaźnik | Polska elektrownia jądrowa | OpenAI (Stargate i kolejne etapy) |
|---|---|---|
| Całkowity koszt | 36 mld USD | 1 400 mld USD |
| Liczba projektów równoważnych | 1 | ~39 polskich elektrowni |
| Moc (GW) | 4 | 30 |
| Czas realizacji | 10–12 lat | 3–4 lata (etapowo) |
| Finansowanie | Skarb Państwa, kredyty | Prywatny kapitał, fundusze, partnerzy (Microsoft, Oracle, SoftBank) |
Co oznacza taka skala dla świata technologii
Wartość inwestycji Altmana plasuje OpenAI wśród największych projektów przemysłowych w historii – obok sieci energetycznych Chin czy programu Apollo. Jeśli założyć, że OpenAI faktycznie zrealizuje plan 30 GW, firma będzie dysponować infrastrukturą obliczeniową większą niż Google, Meta i Amazon razem wzięte.
Z drugiej strony, tak gigantyczny popyt na energię i chipy może zachwiać globalnym rynkiem półprzewodników, transformatorów, kabli i chłodzenia. Eksperci zwracają uwagę, że każdy gigawat nowej mocy obliczeniowej to tysiące ton stali, setki kilometrów światłowodów i miliony litrów wody potrzebnej do chłodzenia.
„To nie tylko technologia — to przemysł. AI staje się nową energetyką cyfrową.” — komentarz analityka BloombergNEF.
Zestawienie polskiego programu atomowego z planami OpenAI pokazuje, jak bardzo zmieniła się definicja „dużej inwestycji”. Jeszcze dekadę temu 150 mld zł wydawało się kwotą z kosmosu. Dziś jedna firma technologiczna planuje wydać dziesięć razy więcej tylko po to, by zasilać swoje modele sztucznej inteligencji.
Różnica nie jest tylko finansowa. Elektrownia jądrowa działa przez 60 lat i produkuje energię. Infrastruktura OpenAI będzie się starzeć co 3–4 lata, bo każdy nowy układ GPU wymaga nowego chłodzenia, zasilania i oprogramowania. To pokazuje, że tempo zużycia kapitału w AI jest bezprecedensowe.
Jeśli plany Altmana się spełnią, jego „cyfrowe elektrownie” staną się nową klasą infrastruktury krytycznej równie strategiczną jak sieci energetyczne czy transportowe.


