Anthropic kupił prąd na całą Warszawę
Anthropic kupił prąd na całą Warszawę
Anthropic - firma od Claude’a, konkurenta ChatGPT - podpisała z Amazonem umowę na pięć gigawatów mocy obliczeniowej. Pięć gigawatów to tyle ile produkuje cała elektrownia jądrowa. Tyle zużywa dwa miliony ludzi. Żeby trenować AI.

Rok temu, kiedy ktoś mówił że “AI to przemysł ciężki”, dostawał spojrzenia “stary, to tylko kod”. W ciągu dwunastu miesięcy każda firma AI szuka gigawatów. Nie megawatów. Gigawatów.
Anthropic - twórcy modelu Claude, drugi największy konkurent OpenAI - właśnie podpisali z Amazonem umowę na pięć gigawatów mocy obliczeniowej. W tym samym dniu podpisali umowę z Broadcomem na nowe chipy od 2027 roku.
Skala zostaje ta sama: to nie jest zakup kilku serwerów. To jest zakup całej nowej infrastruktury energetycznej.
Co to jest pięć gigawatów
Konkretne porównania:
- Jedna elektrownia jądrowa produkuje średnio 1-1.5 GW. Pięć gigawatów to trzy do pięciu elektrowni.
- Miasto Warszawa zużywa w szczycie zapotrzebowania około 2-3 GW. Anthropic-AWS deal to ponad dwa razy więcej niż Warszawa.
- Dwa miliony ludzi średnio konsumują pięć gigawatów.
- Cała Dania zużywa w szczycie około 6-7 GW. Ten jeden deal to prawie tyle co cały kraj.
I to wszystko - żeby trenować jeden model AI. Claude. Za kilka lat Claude będzie następcą, potem jeszcze jeden. Infrastruktura ma być gotowa.
Dlaczego Anthropic tego potrzebuje
Trenowanie modelu językowego typu Claude Opus/Sonnet wymaga:
- Klastrów GPU - dziesiątki, setki tysięcy kart Nvidia (lub custom chipów od Google/Amazon).
- Prądu - te karty grzeją się na tysiące watów. Klaster 100 000 kart = 100-200 MW samego zapotrzebowania.
- Chłodzenia - inferwencja generuje tyle ciepła że serwerownie budują nad rzekami, żeby chłodzić wodą.
- Sieci - wymiana danych między kartami w czasie rzeczywistym wymaga specjalnej infrastruktury.
Model o skali GPT-5 / Claude Opus 5 wymaga klastra z kilku do kilkunastu gigawatów dostępnej mocy. Bez tego - nie ma postępu.
Deal z Broadcomem
Ten sam dzień - Anthropic podpisuje drugi deal. Z Broadcomem - firmą znaną z custom chipów dla Google (TPU), Apple (modemy), Meta. Cel: nowe chipy zaprojektowane specjalnie pod Claude, od roku 2027.
To pokazuje że Anthropic nie chce zależeć tylko od Nvidii. Jak Google ma swoje TPU, jak Tesla buduje swój AI5, tak Anthropic będzie miał custom chips. To kosztuje dziesiątki miliardów dolarów ale daje niezależność i wyższą efektywność.
Co to znaczy dla ciebie
Dwie konsekwencje bezpośrednie:
1. Rachunki za prąd w Polsce. AI data center w USA pompują zapotrzebowanie na prąd i chipy. Ceny rosną globalnie. Polska jest połączona z europejskim rynkiem energii - wszystkie te giga-deale przekładają się na cenę prądu w Warszawie, Krakowie, Gdańsku. Może nie dziś, może za dwa lata. Ale będzie.
2. Ceny używania AI. Im więcej Anthropic wydaje na infrastrukturę, tym wyższe ceny Claude’a - czasem przekładają się na klienta. ChatGPT właśnie podrożał dwukrotnie (news GPT-5.5). Claude za chwilę też.
Moja perspektywa
Moim zdaniem to pierwszy tydzień gdy widać, że AI to przemysł ciężki. Nie startup z laptopa. Całe infrastruktury.
Przez dwa lata wszyscy powtarzali “AI jest dostępne, demokratyczne, każdy może trenować”. To była prawda dla małych modeli. Dla modeli typu Claude Opus, GPT-5, Gemini Ultra - to jest przemysł rangi petrochemii. Kosztuje miliardy dolarów. Wymaga infrastruktury. Zatrudnia inżynierów z kartonem pieniędzy.
Za pięć lat ten rynek będzie wyglądał dokładnie jak rynek wielkich towarów - kilka firm kontroluje łańcuch od prądu przez chipy po dystrybucję. I to jest sygnał do kupowania (albo unikania) odpowiednich akcji.
Źródła
- Motley Fool - “Anthropic Just Announced Huge News for Alphabet and Broadcom” (22.04.2026)
- TechCrunch - “Exclusive: Google deepens Thinking Machines Lab ties with new multibillion-dollar deal” (22.04.2026)
- Crescendo AI - “Latest AI News 2026”
- Bloomberg - “Google Releases New AI Agents” (22.04.2026)
- Ofox AI - “GPT-5.5 Released: Infrastructure Context” (2026)