NVIDIA walczy o dominację na rynku chipów AI. Google coraz mocniej promuje własne układy TPU

Rynek sztucznej inteligencji to dziś pole bitwy gigantów technologicznych. NVIDIA wciąż dominuje w segmencie AI GPU, ale coraz wyraźniej musi odpierać ataki ze strony firm rozwijających własne układy. Najnowszy raport The Information wskazuje, że Google intensyfikuje działania wokół swoich TPU (czyli jednostek Tensor), chcąc umieścić je w centrach danych obok układów NVIDIA.
Według źródeł Google już nie tylko korzysta z TPU na własne potrzeby, ale aktywnie rozmawia z mniejszymi dostawcami usług chmurowych, aby ci włączyli układy TPU do swojej infrastruktury. Dzięki temu klienci mieliby dostęp zarówno do popularnych GPU NVIDIA, jak i do tańszej alternatywy w postaci chipów Google.
Pierwsze doniesienia o takim kierunku pojawiły się już w czerwcu, gdy spekulowano, że OpenAI korzysta częściowo z TPU do zasilania ChatGPT. Teraz jednak The Information powołuje się aż na siedem niezależnych źródeł, co sugeruje, że działania Google są zakrojone na szeroką skalę. Choć wysokie ceny GPU od NVIDIA to główny powód poszukiwania alternatyw, raport wskazuje na jeszcze jeden aspekt – Google nie nadąża z rozbudową własnych centrów danych. Dlatego firma może chcieć umieszczać swoje układy TPU w zewnętrznych serwerowniach, by szybciej zwiększyć moce obliczeniowe dla własnych projektów AI.





Konkurencja dla NVIDIA nie kończy się na Google. Amazon rozwija własne chipy Trainium, które wykorzystywane są w AWS. Jednak inwestorzy zareagowali negatywnie – po ostatnich wynikach kwartalnych akcje firmy spadły o blisko 10%, bo rynek obawia się, że stawianie na autorskie rozwiązania obniża atrakcyjność usług chmurowych. Co więcej, według raportu New Street Research nawet Anthropic – główny użytkownik Trainium – wolałby pracować na GPU NVIDIA.