Umowy, które przebudowują rynek centrów danych: Nvidia i CoreWeave — kontrakt wart 6,3 mld dolarów
Najmocniejszy nagłówek tygodnia dotyczy rynku infrastruktury: CoreWeave ogłosiło porozumienie z Nvidią, w ramach którego Nvidia zobowiązuje się odkupić niewykorzystaną pojemność chmurową CoreWeave w wysokości 6,3 mld dolarów - umowa sięga do 13 kwietnia 2032 roku. To nie jest zwykła transakcja sprzętowa, lecz mechanizm stabilizujący popyt i rynek udostępniania mocy GPU. Dla CoreWeave oznacza to finansową poduszkę i zabezpieczenie przy wieloletnim wzroście kosztów operacyjnych; dla branży - sygnał, że producenci i operatorzy chcą zacieśniać powiązania, żeby uniknąć fluktuacji popytu na GPU.
Dlaczego to ważne? Popyt na chipy do trenowania i inferencji modeli AI nadal rośnie, ale koszty budowy centrów danych i zakupu sprzętu są ogromne. Wieloletnie kontrakty tego typu redukują ryzyko i mogą przyspieszyć inwestycje w nowe klastry GPU, co z kolei przyspieszy eksperymenty i wdrożenia modeli wymagających dużej mocy obliczeniowej.
Rubin CPX - Nvidia projektuje GPU dla „massive-context” inference
9 września Nvidia zaprezentowała Rubin CPX — nową klasę akceleratora zaprojektowaną do scenariuszy „massive-context” inference, czyli przypadków, w których modele muszą operować na wyjątkowo długim kontekście (długie dokumenty, wielomodalne sesje, długotrwała „pamięć” konwersacji). Rubin CPX jest opisywany jako specjalizacja sprzętowa - inaczej zoptymalizowana mikroarchitektura skierowana na fazę prefill/decode w serwowaniu modeli, z kompromisem bardziej pod compute FLOPS niż przepustowość pamięci w porównaniu do innych rodzin GPU.
Jeśli Rubin CPX spełni obietnice, możemy spodziewać się systemów, które potrafią „utrzymywać” kontekst rozciągnięty na dziesiątki, setki tysięcy tokenów bez kosztownego przenoszenia danych między warstwami. To z kolei wpływa na architekturę agentów, systemów résumé kontekstowych czy aplikacji analizujących wielkie zbiory tekstu i multimediów.
Agenci kodu i narzędzia „do roboty”: OpenAI aktualizuje Codex i wprowadza GPT-5-Codex
OpenAI wypuściło aktualizację Codex oraz addendum opisujące wariant GPT-5 zoptymalizowany do zadań programistycznych — GPT-5-Codex. Zmiany mają poprawić niezawodność, szybkość i zdolność modeli do pracy w trybie agentowym: uruchamiania testów, poprawiania błędów i iteracyjnego doprowadzania kodu do przechodzących testów. W komunikatach OpenAI akcentuje, że celem jest uczynienie Codex bardziej przydatnym w warunkach produkcyjnych (IDE, terminal, automaty CI).
Narzędzia AI zaczynają przejmować nie tylko drobne fragmenty pracy, lecz także części procesu inżynierii — uruchamianie testów, automatyczne poprawki, refaktoringi. To otwiera oczywiste możliwości, ale też rodzi pytania o procesy QA, odpowiedzialność za regresje i sposób weryfikacji zautomatyzowanych zmian w krytycznych systemach.
Microsoft rozszerza Copilot Chat — AI bezpośrednio w aplikacjach do pracy
Microsoft kontynuuje integrację agentów w Microsoft 365: w połowie tygodnia firma ogłosiła szerokie udostępnienie Copilot Chat w aplikacjach Word, Excel, PowerPoint i Outlook (dla licencjonowanych użytkowników Copilot). Dodatkowo rozwija się Copilot Studio i narzędzia do tworzenia niestandardowych agentów korporacyjnych. Microsoft podkreśla aspekty odpowiedzialnego AI i narzędzia do kontroli przechowywania i synchronizacji danych.
Anthropic: nowe funkcje i twarde decyzje o treningu danych
Firma Anthropic ogłosiła nowe mechanizmy ustawień dla użytkowników związanych z treningiem modeli oraz raport ekonomiczny opisujący nierównomierne przyjęcie AI na poziomie geograficznym i enterprise. Jednocześnie udostępniono funkcje, które ułatwiają pracę z plikami (Claude potrafi teraz tworzyć i edytować dokumenty, arkusze i prezentacje bezpośrednio w interfejsie). To sygnał, że konkurencja w obszarze „asystentów do pracy” jest intensywna i różni się modelem biznesowym oraz podejściem do prywatności.
Google DeepMind i „Gemini 2.5 Pro” — kolejny krok w stronę mocnych modeli do zadań złożonych
Google/DeepMind dalej rozwijają linię Gemini; w tygodniu pojawiły się materiały dotyczące modelu Gemini 2.5 Pro — skierowanego do zadań złożonych, takich jak zaawansowane kodowanie, rozumowanie i wielomodalne zadania. Google podkreśla zdolności modelu do tworzenia złożonych fragmentów kodu, symulacji i interaktywnych wizualizacji. To kolejny element „wyścigu” do modeli specjalizowanych, które lepiej radzą sobie w pewnych klasach zadań.
AR/VR: zapowiedzi Meta — sprzęt, deweloperzy i ekosystem
Meta przyciąga uwagę zapowiedziami sprzętowymi wokół Meta - krążą doniesienia o nowych, droższych okularach AR zintegrowanych z ekosystemem deweloperskim oraz o kolejnych iteracjach Ray-Ban/Quest. Choć szczegóły miały być publikowane formalnie na wydarzeniu Connect, już teraz widać strategię: ciężar inwestycji w sprzęt + budowanie platformy deweloperskiej (żeby na starcie mieć „co oglądać” na nowych urządzeniach).