690 miliardów dolarów. Tyle w 2026 roku wydadzą na infrastrukturę Microsoft, Alphabet, Amazon, Meta i Oracle — łącznie. Żeby dać Ci kontekst: to więcej niż roczny PKB Polski. Więcej niż budżet obronny USA. I prawie dwa razy tyle, co te same firmy wydały rok wcześniej.
Ale tu nie chodzi o same pieniądze. Chodzi o coś bardziej podstawowego — o fizyczne ograniczenie, na które te firmy wpadły z pełną prędkością. Prąd. Okazuje się, że można mieć nieograniczony budżet na serwery, ale jeśli nie masz skąd ich zasilić, stoisz w miejscu. Microsoft ma 80 miliardów dolarów w zaległych zamówieniach na Azure, których nie może zrealizować — nie dlatego, że nie ma chipów, ale dlatego, że nie ma wystarczającej mocy w sieci energetycznej.
To temat, o którym mało kto mówi w kontekście wdrażania AI w polskich firmach. Wszyscy rozmawiamy o modelach, promptach, automatyzacji. Ale pod tym wszystkim leży warstwa, którą łatwo zignorować — warstwa fizyczna. Serwery, kable, transformatory, elektrownie. I to ona w najbliższych latach zdecyduje o tym, ile faktycznie zapłacisz za AI w swojej firmie.
Wyścig o centra danych: kto ile wydaje i po co
Zacznijmy od liczb, bo są oszałamiające. W 2025 roku pięciu największych dostawców chmury wydało łącznie około 381 miliardów dolarów na infrastrukturę. To był już rekord. Ale w 2026 roku te kwoty niemal się podwajają.
Amazon planuje wydać 200 miliardów dolarów — większość na AWS i centra danych AI. Alphabet (Google) celuje w 175-185 miliardów. Meta zadeklarowała 115-135 miliardów. Microsoft zmierza ku 120 miliardom lub więcej. Oracle dokłada kolejne 50 miliardów.
Łącznie to od 660 do 690 miliardów dolarów w jednym roku. I około 75% tej kwoty — ponad 450 miliardów — trafia bezpośrednio na infrastrukturę AI: karty GPU, specjalizowane procesory, centra danych zbudowane pod obciążenia związane ze sztuczną inteligencją.
Dlaczego aż tyle? Bo rynek AI jest teraz ograniczony podażą, nie popytem. Każda z tych firm mówi to samo: mamy więcej klientów niż serwerów. Microsoft ma backlog zamówień na 80 miliardów dolarów. AWS zanotował w Q4 2025 najszybszy wzrost od 13 kwartałów — 24% rok do roku, do 35,6 miliardów dolarów w jednym kwartale. Google Cloud urósł o 48% rok do roku. Firmy dosłownie nie nadążają z budową infrastruktury.
Ale jest haczyk. Te centra danych trzeba czymś zasilić. I tu zaczyna się prawdziwy problem.
Ile prądu zjada AI — i dlaczego to ma znaczenie
Jedno zapytanie do ChatGPT zużywa około 0,34 watogodziny energii elektrycznej. Brzmi jak nic? To 10 razy więcej niż klasyczne wyszukiwanie w Google. A ChatGPT obsługuje dziennie miliardy zapytań — sam zużywając około 47 gigawatogodzin prądu dziennie.
Przełóżmy to na pieniądze. Przy średniej cenie prądu komercyjnego w USA (około 14 centów za kWh), roczny koszt energii dla samego ChatGPT to mniej więcej 2,4 miliarda dolarów. Za sam prąd. Nie licząc serwerów, chłodzenia, ludzi, nieruchomości.
A to dopiero jeden produkt jednej firmy. Według Schneider Electric, wszystkie generatywne systemy AI zużyły w 2025 roku łącznie 15 terawatogodzin prądu. Do 2030 roku ta liczba ma wzrosnąć do 347 terawatogodzin — ponad 20-krotny wzrost w pięć lat.
Dla porównania: globalne zużycie prądu przez centra danych — nie tylko AI, ale wszystkie — wynosiło w 2024 roku około 460 TWh. Do 2030 roku ma przekroczyć 1000 TWh. To mniej więcej tyle, ile zużywa cała Japonia. Albo Francja i Niemcy razem wzięte.
Centra danych w USA zużywały w 2022 roku 17 GW mocy. Prognozy na 2030 rok mówią o 130 GW — niemal ośmiokrotny wzrost. Sieć energetyczna USA, zbudowana dekady temu, nie była na to projektowana.
Irlandia jest dobrym przykładem tego, co się dzieje, gdy centra danych rosną szybciej niż infrastruktura energetyczna. W 2022 roku centra danych w Irlandii stanowiły 17% krajowego zużycia prądu. Do 2026 roku ten udział ma osiągnąć 32%. Dublin i Amsterdam już musiały wstrzymywać nowe projekty centrów danych — po prostu nie mają skąd brać prądu.
To nie jest abstrakcyjny problem. To jest problem, który bezpośrednio wpływa na cenę, jaką Ty płacisz za usługi chmurowe w swojej firmie.
Powrót atomu: Microsoft, Three Mile Island i nowa energia dla AI
Kiedy masz setki miliardów do wydania, a prądu brakuje — zaczynasz myśleć o źródłach energii, o których inni nie myślą. I tak wielkie firmy technologiczne odkryły na nowo energię jądrową.
Microsoft podpisał 20-letni kontrakt wart 16 miliardów dolarów na reaktywację jednego z reaktorów elektrowni Three Mile Island — tak, tej samej, która w 1979 roku przeżyła częściowe stopienie rdzenia i stała się symbolem strachu przed atomem. Reaktor ma dostarczać 835 MW mocy, a jego ponowne uruchomienie planowane jest na 2028 rok. To dość, żeby zasilić duży kampus centrów danych.
Microsoft nie jest sam. Google nawiązał współpracę z Kairos Power nad małymi reaktorami modularnymi (SMR) o mocy 500 MW, z planowanym uruchomieniem do 2030 roku. Amazon ogłosił inwestycję ponad 20 miliardów dolarów w przekształcenie terenów wokół elektrowni jądrowej w kampus centrów danych zasilanych bezemisyjną energią atomową.
Dlaczego akurat atom? Bo centra danych AI potrzebują czegoś, czego odnawialne źródła energii nie dają — ciągłości. Serwery pracują 24 godziny na dobę, 365 dni w roku. Słońce zachodzi, wiatr słabnie. Atom nie. Reaktor jądrowy daje stałą, przewidywalną moc bez emisji CO2. Dla firmy, która podpisuje kontrakty na dostawy mocy obliczeniowej na lata do przodu, ta przewidywalność jest warta miliardy.
ONZ w swoim raporcie ze stycznia 2026 wprost pyta: czy AI zapoczątkuje nową erę energii jądrowej? Patrząc na skalę inwestycji — odpowiedź brzmi: tak, już ją zapoczątkowało. Międzynarodowa Agencja Energii Atomowej odnotowuje rosnące zainteresowanie atomem ze strony sektora data center jako trend, który może przyspieszyć rozwój technologii SMR na całym świecie.
Polska sieć energetyczna kontra centra danych — co nas czeka
A teraz temat, który dotyczy nas bezpośrednio. Polska staje się coraz atrakcyjniejszym rynkiem dla centrów danych — i to oznacza zarówno szanse, jak i poważne wyzwania.
Microsoft ogłosił inwestycję 2,8 miliarda złotych w infrastrukturę chmurową i AI w Polsce, z planowanym uruchomieniem w 2026 roku. To nie jest mały projekt — to budowa regionalnego centrum obliczeniowego, które ma obsługiwać klientów z całej Europy Środkowo-Wschodniej. Polska jest atrakcyjna: mamy stosunkowo niskie koszty pracy, chłodny klimat (mniejsze koszty chłodzenia serwerów), dobrą lokalizację geograficzną i rosnący rynek IT.
Prognozy PMR mówią, że moc polskich centrów danych potroi się do 2030 roku — z obecnych 173 MW do ponad 500 MW. Do 2034 roku ma osiągnąć 1200 MW, co uczyniłoby Polskę jednym z najważniejszych rynków data center Tier 2 w Europie.
Ale jest problem. I to duży.
Do Polskich Sieci Elektroenergetycznych (PSE) wpłynęły wnioski o podłączenie obiektów typu data center na łączną moc 13 GW. Dla kontekstu: łączna moc wszystkich elektrowni w Polsce wynosi około 72 GW. Oczywiście, część tych wniosków to spekulacyjna rezerwacja mocy — polskie przepisy pozwalają na składanie wniosków bez realnego zobowiązania do budowy. Ale nawet jeśli zrealizuje się 20-30% tych planów, mówimy o kilku gigawatach dodatkowego obciążenia sieci.
A polska sieć energetyczna ma swoje problemy. Starzejąca się infrastruktura przesyłowa, wciąż duży udział węgla, powolna transformacja energetyczna, skomplikowane procedury przyłączeniowe. Budowa centrum danych trwa rok-dwa. Rozbudowa sieci energetycznej — od pięciu do dziesięciu lat. To luka, która już teraz hamuje inwestycje.
Budowa centrum danych trwa 1-2 lata. Rozbudowa infrastruktury elektroenergetycznej — 5-10 lat. Ta asymetria czasowa to jeden z największych hamulców rozwoju AI w Polsce.
Nowe regulacje UE wymagają od operatorów centrów danych szczegółowego raportowania 30 wskaźników — od zużycia energii po odzysk ciepła. To wymusza inwestycje w odnawialne źródła energii, paliwo HVO i technologie odzysku ciepła. Dla dużych operatorów to koszt. Dla mniejszych — bariera wejścia.
Co to oznacza dla Twojej firmy: ceny chmury, koszty AI, planowanie
Dobrze, ale jak to wszystko wpływa na Ciebie? Na przedsiębiorcę, który korzysta z ChatGPT, Azure, AWS albo rozważa wdrożenie AI w swojej firmie?
Ceny chmury pójdą w górę
To już się dzieje. Na początku 2026 roku AWS podniósł ceny instancji GPU o 15% — na przykład cena p5e.48xlarge wzrosła z 34,61 do 39,80 dolarów za godzinę. To nie jest jednorazowa korekta — to trend. Koszty energii rosną, mocy obliczeniowej brakuje, a popyt przewyższa podaż. W takiej sytuacji ceny mogą iść tylko w jedną stronę.
Dla polskiej firmy, która płaci za chmurę kilka-kilkanaście tysięcy złotych miesięcznie, podwyżka o 10-15% to dodatkowe kilkaset do kilku tysięcy złotych rocznie. Nie brzmi dramatycznie — ale jeśli korzystasz intensywnie z modeli AI, rachunki mogą rosnąć szybciej, niż się spodziewasz.
Optymalizacja staje się obowiązkowa
Kiedy prąd był tani, a mocy było pod dostatkiem, można było sobie pozwolić na nieefektywne zapytania do API, za duże modele do prostych zadań, brak cache'owania odpowiedzi. Te czasy się kończą. Każde zapytanie kosztuje — nie tylko Ciebie, ale i planetę.
Praktyczne kroki, które warto rozważyć:
- Dobieraj model do zadania. Nie potrzebujesz GPT-4o do klasyfikacji maili. Mniejszy, tańszy model zrobi to samo za ułamek ceny i ułamek energii.
- Cache'uj odpowiedzi. Jeśli wielu użytkowników zadaje podobne pytania, nie wysyłaj każdego do API. Zapisz odpowiedź i serwuj z cache.
- Przetwarzaj batchowo. Zamiast 100 pojedynczych zapytań, grupuj je w jedno — oszczędzasz na overhead'zie komunikacji.
- Monitoruj zużycie. Wiesz, ile płacisz za prąd w biurze. Czy wiesz, ile płacisz za obliczenia w chmurze? Zacznij to mierzyć.
- Rozważ modele lokalne. Dla powtarzalnych zadań (klasyfikacja, ekstrakcja danych, tłumaczenia) model uruchomiony na własnym serwerze może być tańszy niż API w chmurze — szczególnie przy dużym wolumenie.
Czy AI stanie się droższe z czasem?
To pytanie za 690 miliardów dolarów. I odpowiedź nie jest prosta. Z jednej strony — rosnące koszty energii i infrastruktury powinny podnosić ceny. Z drugiej — efektywność modeli AI rośnie. Nowsze modele potrzebują mniej mocy obliczeniowej do tych samych zadań. Konkurencja między dostawcami (OpenAI, Google, Anthropic, Mistral, chińskie firmy jak DeepSeek) wymusza optymalizację kosztów.
Moja prognoza: bazowe usługi AI (API do prostych modeli) potanieją, bo efektywność rośnie szybciej niż koszty energii. Ale zaawansowane usługi AI (największe modele, fine-tuning, dedykowana infrastruktura) podrożeją, bo zapotrzebowanie na nie rośnie szybciej niż dostępna moc obliczeniowa.
Dla polskiego przedsiębiorcy to oznacza: jeśli korzystasz z AI do prostych zadań — będzie taniej. Jeśli potrzebujesz ciężkiej infrastruktury — licz się z rosnącymi kosztami i planuj budżet odpowiednio.
Szanse dla polskich firm energetycznych i infrastrukturalnych
W każdym problemie kryje się okazja. A problem energetyczny centrów danych to okazja warta miliardy — również w Polsce.
Kto na tym zyska
Firmy energetyczne i OZE. Centra danych potrzebują prądu — dużo, stabilnie, z certyfikatem zielonej energii. Firmy, które mogą dostarczyć kontrakty PPA (Power Purchase Agreement) na energię odnawialną, mają teraz złoty okres. Każdy duży operator data center szuka partnerów energetycznych w regionie.
Budownictwo infrastrukturalne. Budowa centrum danych to nie tylko serwery — to budynki, systemy chłodzenia, instalacje elektryczne, transformatory, sieci kablowe. Polskie firmy budowlane specjalizujące się w obiektach przemysłowych mają tu naturalne pole do działania. Rynek budowy data center w Polsce będzie rósł agresywnie przez najbliższą dekadę.
Firmy zajmujące się chłodzeniem i klimatyzacją. Centrum danych to fabryka ciepła. Serwery generują ogromne ilości ciepła, które trzeba odprowadzić. Nowoczesne systemy chłodzenia — immersyjne (zanurzenie serwerów w specjalnym płynie), geotermalne, z odzyskiem ciepła — to rosnący rynek. Polska firma, która opanuje tę technologię, może eksportować ją do całej Europy.
Integrator IT i firmy doradcze. Duży operator wchodzący na polski rynek potrzebuje lokalnych partnerów — do uzyskania pozwoleń, negocjacji z PSE, znalezienia terenu, rekrutacji ludzi. To szansa dla firm consultingowych i integratorów, którzy znają polskie realia.
Atom w Polsce — szansa czy marzenie?
Polska buduje swoją pierwszą elektrownię jądrową (projekt w Lubiatowie-Kopalinie). Jeśli powstaną też małe reaktory modularne (SMR) — a rozmowy na ten temat trwają — mogą one w przyszłości zasilać centra danych. To horyzont 2035+, ale firmy, które teraz budują kompetencje w obszarze energetyki jądrowej, będą miały przewagę.
Nie muszę chyba dodawać, że to szansa również dla firm szkoleniowych, doradczych i technologicznych, które pomogą polskiemu sektorowi energetycznemu przygotować się na tę transformację.
Podsumowanie: AI potrzebuje prądu — i to zmienia wszystko
Rozmawiamy o AI tak, jakby to był wyłącznie temat softwarowy. Modele, algorytmy, prompty, wdrożenia. Ale pod tym wszystkim leży twarda, fizyczna rzeczywistość: serwery, które zużywają megawaty prądu. Centra danych, które potrzebują więcej energii niż niektóre kraje. Sieci energetyczne, które nie nadążają za popytem.
Dla Ciebie, jako polskiego przedsiębiorcy, to oznacza kilka rzeczy:
- Koszty chmury będą rosły — szczególnie dla zaawansowanych usług AI. Planuj budżet na to.
- Optymalizacja zużycia AI staje się umiejętnością biznesową — nie tylko techniczną. Firma, która mądrze dobiera modele i zarządza zapytaniami, płaci mniej niż ta, która tego nie robi.
- Polska ma szansę zostać hubem centrów danych dla Europy Środkowo-Wschodniej — ale musi rozwiązać problem infrastruktury energetycznej.
- Sektor energetyczny, budowlany i chłodzenia ma przed sobą dekadę wzrostu napędzanego popytem na centra danych.
690 miliardów dolarów to nie jest bańka. To jest najbardziej kosztowna infrastruktura, jaką ludzkość kiedykolwiek budowała w tak krótkim czasie. I Twoja firma — niezależnie od tego, czy budujesz centra danych, czy korzystasz z ChatGPT do pisania maili — jest częścią tego ekosystemu.
Pytanie nie brzmi, czy to Cię dotknie. Pytanie brzmi: czy się na to przygotujesz.