geçmişe dair bildiğiniz her şeyi unutun. çünkü bildiğinizi zannettiğiniz dünya tarihe karışmak üzere.
NVIDIA, Grace CPU’nun yanı sıra yepyeni Blackwell B200 GPU’larını içeren en yeni DGX ve Süperçip platformlarını duyurdu. NVIDIA GB200 Grace Blackwell Süperçip, iki NVIDIA B200 Tensor Core GPU’yu 900 GB/sn ultra düşük güçlü NVLink çipten çipe bağlantı üzerinden NVIDIA Grace CPU’ya bağlıyor. işte GB200 Grace Blackwell Süperçip’in özellikleri:
Yapay Zeka Performansı: GB200 destekli sistemler, 800 Gb/s’ye varan hızlarda gelişmiş ağ iletişimi sağlayan NVIDIA Quantum-X800 InfiniBand ve Spectrum X800 Ethernet platformlarına bağlanabiliyor.
Çok Düğümlü Sistem: GB200, en yoğun bilgi işlem yükleri için çok düğümlü, sıvı soğutmalı, raf ölçekli bir sistem olan NVIDIA GB200 NVL72’nin önemli bir bileşeni. Bu sistem, 36 Grace Blackwell Süperçipi ve 72 Blackwell GPU’yu birleştiriyor.
Hiper Ölçekli Yapay Zeka Bulutları: GB200 NVL72, LLM çıkarım iş yükleri için aynı sayıdaki NVIDIA H100 Tensor Core GPU’lara kıyasla 30 kata kadar performans artışı sağlar ve maliyet ile enerji tüketimini 25 kata kadar azaltıyor.
Toplam Performans: Platform, 1,4 exaflop yapay zeka performansı ve 30 TB hızlı belleğe sahip tek bir GPU görevi görüyor ve en yeni DGX SuperPOD için bir yapı taşı oluşturuyor.
HGX B200 Sunucu Anakartı: NVIDIA, x86 tabanlı üretken yapay zeka platformlarını desteklemek için sekiz B200 GPU’yu NVLink aracılığıyla bağlayan bir sunucu anakartı olan HGX B200’ü sunuyor. HGX B200, NVIDIA Quantum-2 InfiniBand ve Spectrum-X Ethernet ağ platformları aracılığıyla 400 Gb/s’ye kadar ağ oluşturma hızlarını destekliyor.
Performans Karşılaştırması: GB200 Grace Blackwell Süperçip platformu, H200 Grace Hopper platformuna göre yapay zeka performansında 30 kat artış sunacak.
NVIDIA GB200 Grace Blackwell Süperçip, oldukça güçlü bir işlemci ve GPU kombinasyonudur. işte bu süperçibin teknik özellikleri:
işlemci ve GPU Bağlantısı:
GB200, 36 Grace CPU ve 72 Blackwell GPU’yu birleştirir. Bu, trilyon parametreli dil modelleri için gerçek zamanlı 30 kat daha hızlı LLM çıkarımı sağlar
NVIDIA NVLink-C2C aracılığıyla iki yüksek performanslı NVIDIA Blackwell Tensor Core GPU ve bir NVIDIA Grace CPU’ya bağlanır.
Yapay Zeka Performansı:
GB200 destekli sistemler, 800 Gb/s’ye varan hızlarda gelişmiş ağ iletişimi sağlayan NVIDIA Quantum-X800 InfiniBand ve Spectrum X800 Ethernet platformlarına bağlanabilir.
LLM çıkarım iş yükleri için NVIDIA H100 Tensor Core GPU’lara kıyasla 30 kata kadar performans artışı sağlar ve maliyet ile enerji tüketimini 25 kata kadar azaltır.
Toplam Performans:
Platform, 1,4 exaflop yapay zeka performansı ve 30 TB hızlı belleğe sahip tek bir GPU görevi görür ve en yeni DGX SuperPOD için bir yapı taşı oluşturur 12.
Enerji Verimliliği:
Sıvı soğutmalı GB200 NVL72 rafları, veri merkezinin karbon ayak izini azaltır ve enerji tüketimini düşürür.
Sıvı soğutma, hesaplama yoğunluğunu artırır, kullanılan zemin alanını azaltır ve büyük NVLink alan mimarileriyle yüksek bant genişliği ve düşük gecikmeli GPU iletişimini kolaylaştırır.
Transistör Sayısı: GB200, 208 milyar transistöre sahiptir. Bu, H100 modeline kıyasla %160 daha fazla transistör içerir
Görsel Veri işleme Kapasitesi: GB200 NVL72, 36 Grace CPU ve 72 Blackwell GPU’yu birleştirir. Bu, trilyon parametreli dil modelleri için gerçek zamanlı 30 kat daha hızlı LLM çıkarımı sağlar 3. Ayrıca, 130 terabayt/saniye (TB/s) düşük gecikmeli GPU iletişimi sunan NVLink Switch System ile donatılmıştır. Bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için büyük bir veri iletişim hızı sağlar