NVIDIA traci OpenAI. Wybiera tańsze rozwiązanie od Google

Technologie
1785V
NVIDIA
Łukasz Musialik | Dzisiaj, 12:19

OpenAI rozpoczęło współpracę z Google Cloud, wykorzystując procesory TPU do zasilania ChatGPT i innych produktów. To strategiczny ruch mający na celu redukcję astronomicznych kosztów związanych z obliczeniami i uniezależnienie się od Microsoft Azure.


Dalsza część tekstu pod wideo

Decyzja OpenAI wynika z presji finansowej - wydatki na obliczenia stanowią 55-60% z 9 miliardów dolarów rocznych kosztów operacyjnych firmy. W 2025 roku ten udział może przekroczyć 80%.

Google może oferować usługi AI Compute za około 20% ceny, jaką płacą firmy kupujące chipy bezpośrednio od NVIDIA. Różnica jest widoczna w cenach modeli - Gemini 2.5 Pro kosztuje 10 dolarów za milion tokenów, podczas gdy o3 OpenAI - 40 dolarów.

Zmiana oznacza koniec wyłączności z Microsoft Azure, która obowiązywała od 2019 roku. Klauzula ekskluzywności wygasła w styczniu 2025, pozwalając OpenAI na dywersyfikację infrastruktury.

Paradoksalnie Google wspiera swojego głównego konkurenta w obszarze AI, jednocześnie ograniczając dostęp do najnowocześniejszych chipów TPU, by zachować przewagę konkurencyjną.

OpenAI rozszerza także współpracę z Oracle i CoreWeave, redukując zależność od pojedynczego dostawcy i przygotowując się na rosnące zapotrzebowanie energetyczne sektora AI.

Źródło: revolgy.com / ainvest.com

Komentarze (2)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper