NVIDIA Blackwell Ultra GB300 to najszybszy chip AI na świecie. Jego specyfikacja jest dosłownie szalona

Technologie
1082V
NVIDIA
Maciej Zabłocki | Dzisiaj, 13:45

NVIDIA oficjalnie zaprezentowała szczegóły swojego najpotężniejszego układu do sztucznej inteligencji – Blackwell Ultra GB300. Chip jest aż o 50% szybszy od GB200, a jego specyfikacja robi wrażenie nawet na tle poprzednich generacji.

GB300 korzysta z konstrukcji Dual Reticle GPU, czyli dwóch połączonych matryc, które dzięki interfejsowi NV-HBI (10 TB/s) działają jak jeden układ scalony. Chip powstał w procesie TSMC 4NP (ulepszony 5 nm dla NVIDIA) i składa się z 208 miliardów tranzystorów.

Dalsza część tekstu pod wideo

Wewnątrz znajdziemy:

  • 160 multiprocesorów strumieniowych (SM),
  • 20480 rdzeni CUDA,
  • 640 rdzeni Tensor 5. generacji z obsługą FP8, FP6 i NVFP4,
  • 40 MB pamięci TMEM.

To właśnie rdzenie Tensor odpowiadają za rewolucję w wydajności AI – od Volty po Blackwella każda generacja przynosiła nowe tryby obliczeń, a GB300 podwaja możliwości poprzedników. Największy skok dotyczy pamięci – 288 GB HBM3e (w 8 stosach), z magistralą 8192-bit i przepustowością 8 TB/s. To pozwoli uruchamiać modele AI liczące setki miliardów parametrów bez konieczności korzystania z pamięci zewnętrznej i zwiększa wydajność transformatorów dzięki większemu KV cache.

  • Wydajność FP8: 5 PFLOPS (dense), 10 PFLOPS (sparse),
  • Wydajność NVFP4: 15 PFLOPS (dense), 20 PFLOPS (sparse),
  • NVLink 5: 1,8 TB/s na GPU (18 x 100 GB/s),
  • PCIe Gen6 x16: 256 GB/s,
  • Skalowanie: do 576 GPU w jednej topologii i konfiguracje NVL72 (72 GPU) z łączną przepustowością 130 TB/s.

wydajnosc i mozliwosci NVIDIA Blackwell serwery
resize icon

GB300 nie tylko przyspiesza obliczenia, ale też oferuje nowe funkcje klasy enterprise:

  • MIG (Multi-Instance GPU): podział GPU na niezależne instancje (np. 2 x 140 GB, 4 x 70 GB, 7 x 34 GB),
  • Confidential Computing: ochrona modeli AI w sprzętowym TEE z szyfrowaniem NVLink,
  • AI-driven RAS: monitorowanie tysięcy parametrów i predykcja awarii,
  • GigaThread Engine nowej generacji – jeszcze szybsze zarządzanie zadaniami.

Blackwell Ultra GB300 pokazuje, że NVIDIA nie zamierza oddać pozycji lidera. Chip jest już produkowany masowo i trafia do największych graczy na rynku AI. Dzięki ogromnej pamięci, modularnej architekturze i ulepszeniom w rdzeniach Tensor, GB300 ma obsługiwać modele liczone w bilionach parametrów i wyznaczyć nowy standard w obliczeniach sztucznej inteligencji.

Blackwell Ultra GPU
resize icon

Choć na pierwszy rzut oka może się wydawać, że potężne układy jak Blackwell Ultra GB300 dotyczą wyłącznie centrów danych i badań nad AI, w praktyce mają ogromne znaczenie także dla graczy. To właśnie dzięki inwestycjom NVIDIA w infrastrukturę AI powstają technologie pokroju DLSS (Deep Learning Super Sampling) czy RTX Video Super Resolution, które wykorzystują algorytmy sztucznej inteligencji do podbijania jakości obrazu i wydajności w grach. Im potężniejsze układy AI NVIDIA dostarcza deweloperom, tym szybciej te rozwiązania trafiają na rynek konsumencki – do kart GeForce i usług takich jak GeForce NOW. Innymi słowy, Blackwell Ultra to nie tylko fundament dla modeli „multi-trillion parameters” w data center, ale także baza dla kolejnej generacji narzędzi, które realnie poprawią komfort grania na PC i konsolach.

Źródło: WCCFTech

Komentarze (5)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper