AI w medycynie Artykuły Narzędzia AI Tekstowe

Inwestycja Altmana większa niż 40 polskich elektrowni jądrowych

plany OpenAI

Podczas wystąpienia online Sam Altman wraz z Jakubem i Wojciechem, potwierdził skalę, o której jeszcze kilka miesięcy temu mówiło się w cicho. OpenAI planuje zbudować infrastrukturę o wartości 1,4 bln USD. W praktyce to ponad 30 gigawatów mocy obliczeniowej, czyli wystarczająco dużo, by zasilić równocześnie dziesiątki milionów serwerów AI, setki tysięcy akceleratorów GPU i całe środowisko treningowe przyszłych modeli.

W dalszej części, Altman mówi o ambitnym planie robotyzacji budowy infrastruktury i dojścia do „1 gigawata mocy tygodniowo”, co przy obecnych cenach infrastruktury (ok. 40–50 mld USD/GW) oznacza tempo inwestycji, którego w historii technologii jeszcze nie było.

Nie ma innej drogi do skalowania AI niż budowa nowej infrastruktury – globalnej, taniej i trwałej.

Sam Altman, CEO OpenAI

Źródło: YouTube

Polska elektrownia atomowa: 34 mld euro za 4 gigawaty

Rządowe szacunki mówią, że budowa pierwszej elektrowni jądrowej w Polsce (trzy bloki, ~4 GW) pochłonie ok. 34 mld euro, czyli w przybliżeniu 36 mld USD. W przeliczeniu daje to ok. 9 mld USD za 1 GW mocy elektrycznej.

Co ciekawe OpenAI wydaje ok. 47 mld USD za 1 GW mocy obliczeniowej.
Oznacza to, że każdy „gigawat AI” kosztuje ponad pięć razy więcej niż gigawat energii jądrowej.

PorównaniePolska elektrownia jądrowaInfrastruktura OpenAI
Moc4 GW30 GW (mocy obliczeniowej)
Koszt całkowity36 mld USD1,4 bln USD
Koszt 1 GW9 mld USD47 mld USD
Relacja całkowita~39× droższe

Źródła: Bankier.pl, Reuters.

Dlaczego OpenAI potrzebuje tyle energii i mocy

W przeciwieństwie do elektrowni, które wytwarzają energię, centra danych OpenAI tę energię pochłaniają i to w ogromnych ilościach. Każdy z planowanych ośmiu kompleksów w projekcie Stargate ma mieścić nawet 50 tysięcy układów Nvidia Blackwell, chłodzonych cieczą i połączonych światłowodowo z sieciami Microsoftu i Oracle.

Altman otwarcie mówi, że celem jest globalna sieć „intelektualnych elektrowni”, które nie produkują prądu, lecz „moc umysłową”, obliczenia potrzebne do treningu kolejnych generacji modeli.

Z punktu widzenia inżynierii: 30 GW mocy obliczeniowej to równowartość poboru energii całej Holandii. Dlatego OpenAI rozwija partnerstwa z producentami energii jądrowej, firmami od SMR (małych reaktorów modułowych) oraz z operatorami OZE.

„Budowa mocy obliczeniowej na taką skalę wymaga nowej infrastruktury energetycznej — nie da się tego zrobić w oparciu o stare sieci.” — cytat z analityka D.A. Davidson, Gil Luria (Reuters).

W liczbach: OpenAI kontra polski atom

WskaźnikPolska elektrownia jądrowaOpenAI (Stargate i kolejne etapy)
Całkowity koszt36 mld USD1 400 mld USD
Liczba projektów równoważnych1~39 polskich elektrowni
Moc (GW)430
Czas realizacji10–12 lat3–4 lata (etapowo)
FinansowanieSkarb Państwa, kredytyPrywatny kapitał, fundusze, partnerzy (Microsoft, Oracle, SoftBank)

Co oznacza taka skala dla świata technologii

Wartość inwestycji Altmana plasuje OpenAI wśród największych projektów przemysłowych w historii – obok sieci energetycznych Chin czy programu Apollo. Jeśli założyć, że OpenAI faktycznie zrealizuje plan 30 GW, firma będzie dysponować infrastrukturą obliczeniową większą niż Google, Meta i Amazon razem wzięte.

Z drugiej strony, tak gigantyczny popyt na energię i chipy może zachwiać globalnym rynkiem półprzewodników, transformatorów, kabli i chłodzenia. Eksperci zwracają uwagę, że każdy gigawat nowej mocy obliczeniowej to tysiące ton stali, setki kilometrów światłowodów i miliony litrów wody potrzebnej do chłodzenia.

„To nie tylko technologia — to przemysł. AI staje się nową energetyką cyfrową.” — komentarz analityka BloombergNEF.

Zestawienie polskiego programu atomowego z planami OpenAI pokazuje, jak bardzo zmieniła się definicja „dużej inwestycji”. Jeszcze dekadę temu 150 mld zł wydawało się kwotą z kosmosu. Dziś jedna firma technologiczna planuje wydać dziesięć razy więcej tylko po to, by zasilać swoje modele sztucznej inteligencji.

Różnica nie jest tylko finansowa. Elektrownia jądrowa działa przez 60 lat i produkuje energię. Infrastruktura OpenAI będzie się starzeć co 3–4 lata, bo każdy nowy układ GPU wymaga nowego chłodzenia, zasilania i oprogramowania. To pokazuje, że tempo zużycia kapitału w AI jest bezprecedensowe.

Jeśli plany Altmana się spełnią, jego „cyfrowe elektrownie” staną się nową klasą infrastruktury krytycznej równie strategiczną jak sieci energetyczne czy transportowe.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *