Gigant z Seattle wkłada w Anthropic dodatkowe 25 miliardów dolarów — ale ta hojność ma bardzo konkretny cel. Nie chodzi o zakup udziałów. Chodzi o to, żeby Anthropic — twórca modelu Claude, jedno z najmocniejszych nazwisk w AI — przez następne dziesięć lat trenował swoje systemy wyłącznie na amerykańskich chipach Trainium, a nie na procesorach Nvidii. Stawką jest złamanie monopolu, który dziś kosztuje każdą firmę AI fortunę.
Anatomia umowy
Pierwsza transza — 5 miliardów dolarów — zasili konto Anthropic niemal natychmiast, przy obecnej wycenie firmy na 380 miliardów dolarów. To sześciokrotnie więcej niż w marcu zeszłego roku, kiedy Anthropic był wart 61,5 miliarda. Pozostałe 20 miliardów ma być uwalniane stopniowo, w miarę jak firma będzie osiągać kolejne „cele komercyjne” — czyli rosnąć.
W zamian Anthropic obiecuje, że w najbliższej dekadzie wyda ponad 100 miliardów dolarów na usługi Amazon Web Services. Mówiąc prościej: pieniądze Amazona wrócą do Amazona. To standardowa konstrukcja w dzisiejszych umowach między Big Techem a spółkami AI — inwestor de facto finansuje własne przychody. Microsoft zrobił to samo z OpenAI w 2023 roku. Teraz Amazon robi to na jeszcze większą skalę.
Dlaczego chipy Trainium
Żeby zrozumieć, o co naprawdę chodzi w tej umowie, trzeba spojrzeć na Nvidię. Dziś każdy, kto chce trenować poważny model AI, kupuje chipy od Nvidii — H100, B200, Blackwell. Nvidia dyktuje ceny, Nvidia ma kolejki oczekujących, Nvidia jest najdroższą firmą świata. Amazon od kilku lat buduje własną alternatywę — chipy Trainium, zaprojektowane specjalnie pod zadania AI, produkowane w Annapurna Labs (spółce kupionej przez Amazon w 2015 roku).
Problem: żeby Trainium stał się realną alternatywą dla Nvidii, potrzebuje poważnego klienta, który będzie na nim trenował najlepsze modele świata i publicznie pokaże, że to działa. Anthropic się do tego idealnie nadaje. Claude konkuruje z GPT-4 od OpenAI i Gemini od Google — jeśli Anthropic pokaże, że można budować modele tej klasy na AWS Trainium, reszta rynku pójdzie za tym przykładem.
Umowa zakłada dostęp do Anthropic do 5 gigawatów mocy obliczeniowej — Trainium2, Trainium3, Trainium4 i kolejnych generacji. Do końca 2026 roku ma zostać uruchomionych prawie gigawat Trainium2 i Trainium3. Do tego dziesiątki milionów rdzeni procesorów Graviton. To skala, która pozwoli trenować modele AI o rozmiarach, o których dwa lata temu nikt nawet nie mówił.
Project Rainier i stawka 200 miliardów
Wspólne centrum danych Amazona i Anthropic w Indianie — Project Rainier — to już dziś prawie pół miliona chipów Trainium2. Jeden z największych klastrów obliczeniowych AI na świecie. W lutym Amazon zapowiedział, że w 2026 roku wyda około 200 miliardów dolarów na inwestycje kapitałowe, z czego większość na infrastrukturę AI. Ta umowa z Anthropic jest częścią tego budżetu, a nie czymś ponad nim.
Andy Jassy, CEO Amazona, w oświadczeniu powiedział, że „zobowiązanie Anthropic do używania AWS Trainium przez kolejną dekadę odzwierciedla postęp, jaki razem zrobiliśmy w projektowaniu niestandardowych chipów.” Czyli: testujcie u nas. Zrobimy wam lepsze chipy. Zaufajcie. Dario Amodei, CEO Anthropic, odpowiedział w tym samym tonie — partnerstwo pozwoli firmie „kontynuować pracę nad modelami, które są zarówno najmocniejsze, jak i najbardziej zaufane na świecie.”

Co to zmienia dla biznesu
Dla przeciętnego użytkownika Claude’a — nic. Model będzie dalej działał tak samo. Ale dla firm, które budują produkty na AI, wiele się zmienia. Ponad 100 000 klientów AWS już dziś używa Claude’a w Amazon Bedrock. Teraz Claude Platform będzie dostępny bezpośrednio z konta AWS — bez dodatkowych logowań, bez osobnej umowy ani faktury. Dla firm, które już mają chmurę Amazona, Claude staje się tak naturalny jak uruchomienie kolejnej wirtualnej maszyny.
Dla polonijnych firm technologicznych w Ameryce i polskich software house’ów, które współpracują z amerykańskimi klientami — to jasny sygnał. Narzędzia AI stają się tańsze, łatwiej dostępne, wpięte w istniejącą infrastrukturę. Bariera wejścia spada. Konkurencja rośnie. Kto jeszcze nie eksperymentuje z Claude’em w swoim stacku, zostaje w tyle.
Niezależność, której nie miał OpenAI
Jest w tej umowie jeden detal, o którym rzadko mówi się w głównej narracji: Anthropic zachował niezależność. Udziały Amazona w Anthropic są ograniczone do poniżej 33%. Google, które też zainwestowało w Anthropic 3 miliardy dolarów, ma podobne ograniczenia co do praw głosu. Żadna z wielkich firm technologicznych nie kontroluje Anthropic samodzielnie.
Dla porównania: Microsoft praktycznie wchłonął OpenAI. Sam Altman przeszedł przez próbę zwolnienia i powrotu, zarząd został przebudowany, a strategia firmy jest dziś ściśle skoordynowana z Microsoftem. Anthropic — przynajmniej na papierze — takiego losu uniknął. W świecie, w którym AI staje się infrastrukturą strategiczną dla całego Zachodu, ta niezależność ma swoją cenę. I swoje znaczenie.
Arthur Skok, poland.us
Amazon × Anthropic — 20 kwietnia 2026 | Nowa inwestycja: 5 mld USD + do 20 mld USD (razem 25 mld USD) | Łącznie Amazon w Anthropic: 33 mld USD | Wycena Anthropic: 380 mld USD (6x w ciągu roku) | Zobowiązanie Anthropic wobec AWS: 100+ mld USD przez 10 lat | Moc obliczeniowa: do 5 GW chipów Trainium | Klienci Claude na AWS Bedrock: 100 000+ | Project Rainier (Indiana): ok. 500 000 chipów Trainium2 | Amazon CAPEX 2026: 200 mld USD | Na podstawie komunikatów prasowych Amazon i Anthropic oraz raportów CNBC, Bloomberg, Reuters (20 kwietnia 2026)
Czytaj więcej na poland.us. Szukaj na polishpages.com













