NVIDIA traci OpenAI. Wybiera tańsze rozwiązanie od Google

OpenAI rozpoczęło współpracę z Google Cloud, wykorzystując procesory TPU do zasilania ChatGPT i innych produktów. To strategiczny ruch mający na celu redukcję astronomicznych kosztów związanych z obliczeniami i uniezależnienie się od Microsoft Azure.
Decyzja OpenAI wynika z presji finansowej - wydatki na obliczenia stanowią 55-60% z 9 miliardów dolarów rocznych kosztów operacyjnych firmy. W 2025 roku ten udział może przekroczyć 80%.




Google może oferować usługi AI Compute za około 20% ceny, jaką płacą firmy kupujące chipy bezpośrednio od NVIDIA. Różnica jest widoczna w cenach modeli - Gemini 2.5 Pro kosztuje 10 dolarów za milion tokenów, podczas gdy o3 OpenAI - 40 dolarów.
Zmiana oznacza koniec wyłączności z Microsoft Azure, która obowiązywała od 2019 roku. Klauzula ekskluzywności wygasła w styczniu 2025, pozwalając OpenAI na dywersyfikację infrastruktury.
Paradoksalnie Google wspiera swojego głównego konkurenta w obszarze AI, jednocześnie ograniczając dostęp do najnowocześniejszych chipów TPU, by zachować przewagę konkurencyjną.
OpenAI rozszerza także współpracę z Oracle i CoreWeave, redukując zależność od pojedynczego dostawcy i przygotowując się na rosnące zapotrzebowanie energetyczne sektora AI.