Skip to main content
search

NVIDIA GB200 NVL72 Trilyonlarca Parametreli Yüksek Lisans Eğitimi ve Gerçek Zamanlı Çıkarım Sağlıyor

 

 

GB200 NVL72 ve NVLink omurgasının görüntüsü.

Trilyon parametreli modellere ilgi nedir? Bugün kullanım durumlarının çoğunu biliyoruz ve aşağıdakilere yönelik artan kapasite vaadi nedeniyle ilgi artıyor:

  • Çeviri, soru cevaplama, soyutlama ve akıcılık gibi doğal dil işleme görevleri.
  • Daha uzun vadeli bağlam ve konuşma becerisine sahip olmak.
  • Dil, görme ve konuşmayı birleştiren çok modlu uygulamalar.
  • Hikaye anlatımı, şiir oluşturma ve kod oluşturma gibi yaratıcı uygulamalar.
  • Protein katlama tahminleri ve ilaç keşfi gibi bilimsel uygulamalar.
  • Tutarlı bir kişilik geliştirme ve kullanıcı bağlamını hatırlama yeteneği ile kişiselleştirme.

Faydaları harika, ancak büyük modellerin eğitimi ve devreye alınması, hesaplama açısından pahalı ve kaynak yoğun olabilir. Gerçek zamanlı çıkarım sağlayacak şekilde tasarlanmış, hesaplama açısından verimli, uygun maliyetli ve enerji açısından verimli sistemler, yaygın dağıtım için kritik öneme sahip olacaktır. Yeni NVIDIA GB200 NVL72 bu göreve uygun bir sistemdir.

Açıklamak için Uzmanlar Karması (MEB) modellerini ele alalım. Bu modeller, hesaplama yükünün birden fazla uzman arasında dağıtılmasına ve model paralelliği ve ardışık düzen paralelliği kullanılarak binlerce GPU’da eğitim yapılmasına yardımcı olur. Sistemi daha verimli hale getirmek.

Ancak yeni düzeyde paralel bilgi işlem, yüksek hızlı bellek ve yüksek performanslı iletişim, GPU kümelerinin teknik zorlukları aşılabilir hale getirmesini sağlayabilir. NVIDIA GB200 NVL72 raf ölçeği mimarisi, aşağıdaki yazıda ayrıntılarıyla anlatacağımız bu hedefe ulaşıyor.

Exascale AI süper bilgisayarı için raf ölçeğinde tasarım

GB200 NVL72’nin kalbi NVIDIA GB200 Grace Blackwell Superchip’tir. İki yüksek performanslı NVIDIA Blackwell Tensor Core GPU’yu ve NVIDIA Grace CPU’yu, 900 GB/s çift yönlü bant genişliği sağlayan NVLink-Chip-to-Chip (C2C) arayüzüne bağlar. NVLink-C2C ile uygulamalar, birleşik bir bellek alanına tutarlı erişime sahip olur. Bu, programlamayı basitleştirir ve trilyon parametreli LLM’lerin, çok modlu görevler için transformatör modellerinin, büyük ölçekli simülasyonlar için modellerin ve 3D veriler için üretken modellerin daha büyük bellek ihtiyaçlarını destekler.

GB200 bilgi işlem tepsisi yeni NVIDIA MGX tasarımını temel alır. İki Grace CPU ve dört Blackwell GPU içerir. GB200’de sıvı soğutma için soğuk plakalar ve bağlantılar, yüksek hızlı ağ iletişimi için PCIe gen 6 desteği ve NVLink kablo kartuşu için NVLink konnektörleri bulunur. GB200 bilgi işlem tepsisi, 80 petaflop yapay zeka performansı ve 1,7 TB hızlı bellek sunar.

İçerideki iki Grace Blackwell GB200 Süper Çipini açığa çıkaran bir GB200 hesaplama düğümü gösterilmektedir.
Şekil 1. Sıvı soğutmalı GB200 bilgi işlem tepsisi, güç açısından verimli ve yüksek performanslı bilgi işlem yoğunluğu sağlar

En büyük sorunlar, paralel olarak verimli bir şekilde çalışmak için  yeterli sayıda çığır açan Blackwell GPU’yu gerektirir, bu nedenle yüksek bant genişliği ve düşük gecikmeyle iletişim kurmaları ve sürekli meşgul olmaları gerekir.

GB200 NVL72 raf ölçekli sistem, dokuz NVLink anahtar tepsisine ve GPU’ları ve anahtarları birbirine bağlayan kablo kartuşlarına sahip NVIDIA NVLink Anahtar Sistemini kullanarak 18 hesaplama düğümü için paralel model verimliliğini kolaylaştırır.

NVIDIA GB200 NVL36 ve NVL72

GB200, NVLink etki alanlarında 36 ve 72 GPU’yu destekler. Her raf, MGX referans tasarımına ve NVLink Anahtar Sistemine dayalı 18 hesaplama düğümünü barındırır. Tek rafta 36 GPU ve 18 tek GB200 bilgi işlem düğümüyle GB200 NVL36 yapılandırmasında gelir. GB200 NVL72, bir rafta 72 GPU ve 18 çift GB200 hesaplama düğümüyle veya 18 tek GB200 hesaplama düğümüne sahip iki rafta 72 GPU ile yapılandırılmıştır.

GB200 NVL72, işletim kolaylığı için bakır kablo kartuşu kullanarak GPU’ları yoğun bir şekilde paketler ve birbirine bağlar. Aynı zamanda 25 kat daha düşük maliyet ve enerji tüketimi sağlayan bir sıvı soğutma sistemi tasarımı kullanıyor.

130 TB/s toplam NVLink bant genişliği sağlayan 9 NVLink Anahtar Tepsisi ve bir kablo kartuşuyla birlikte bir GB200 NVL72 anahtar sistemi gösterilmektedir.
Şekil 2. NVLink Anahtar Sistemi

Beşinci Nesil NVLink ve NVLink Anahtar Sistemi

NVIDIA GB200 NVL72, 1 PB/s’nin üzerinde toplam bant genişliği ve 240 TB hızlı bellekle tek bir NVLink etki alanında 576’ya kadar GPU’yu bağlayan beşinci nesil NVLink’i sunar. Her NVLink anahtar tepsisi 100 GB’ta 144 NVLink bağlantı noktası sunar; böylece dokuz anahtar, 72 Blackwell GPU’nun her birindeki 18 NVLink bağlantı noktasının her birine tam olarak bağlanır.

GPU başına devrim niteliğindeki 1,8 TB/s çift yönlü çıkış, PCIe Gen5’in bant genişliğinin 14 katından fazladır ve günümüzün en karmaşık büyük modelleri için kesintisiz yüksek hızlı iletişim sağlar.

Tepsi görüntüsünü iki NVLink anahtar yongasıyla değiştirin.
Şekil 3. Yüksek hızlı NVLink Switch ara bağlantısı, GPU’lara 1 PB/s toplam bant genişliği sağlar

Nesiller boyunca NVLink

Yüksek hızlı, düşük güçlü SerDe’lere yönelik NVIDIA’nın sektör lideri yeniliği, çoklu GPU iletişimlerini yüksek hızda hızlandırmak için NVLink’in tanıtılmasıyla başlayarak GPU’dan GPU’ya iletişimin ilerlemesini sağlıyor. NVLink GPU’dan GPU’ya bant genişliği 1,8 TB/s’dir; bu, PCIe bant genişliğinin 14 katıdır. Beşinci nesil NVLink, 2014’te tanıtılan 160 GB/sn hızıyla ilk nesilden 12 kat daha hızlıdır. NVLink GPU’dan GPU’ya iletişim, yapay zeka ve HPC’de çoklu GPU performansının ölçeklendirilmesinde etkili olmuştur.

GPU bant genişliğindeki ilerlemeler, NVLink alan boyutunun katlanarak genişlemesiyle birleştiğinde, bir NVLink alanının toplam bant genişliğini 2014’ten bu yana 900 kat artırarak 576 Blackwell GPU NVLink alanı için 1 PB/s’ye çıkardı.

Kullanım örnekleri ve performans sonuçları

GB200 NVL72’nin bilgi işlem ve iletişim yetenekleri benzersiz olup, yapay zeka ve HPC’deki büyük zorlukları pratik erişime taşıyor.

Yapay zeka eğitimi

GB200, FP8 hassasiyetine sahip daha hızlı bir ikinci nesil transformatör motoru içerir. Aynı sayıdaki NVIDIA H100 GPU’lara kıyasla GPT-MoE-1.8T gibi büyük dil modelleri için 32k GB200 NVL72 ile 4 kat daha hızlı eğitim performansı sunar.

Yapay zeka çıkarımı

GB200, LLM çıkarım iş yüklerini hızlandıran son teknoloji yetenekleri ve ikinci nesil bir transformatör motorunu sunar. Önceki H100 nesline kıyasla 1,8T parametresi GPT-MoE gibi yoğun kaynak kullanan uygulamalar için 30 kat hızlanma sağlar. Bu ilerleme, FP4 hassasiyetini ve beşinci nesil NVLink’in getirdiği pek çok avantajı sunan yeni nesil Tensör Çekirdekleri ile mümkün olmaktadır.

GB200'ü 150 jeton/sn/GPU'da ve H100'ü 3,4 jeton/sn/GPU veya 30 kat daha fazla gerçek zamanlı verimle gösteren bir çubuk grafik.
Şekil 4. GB200, H100’e kıyasla 30 kat daha fazla gerçek zamanlı verim sağlar

Belirteçler arası gecikmeye dayalı sonuçlar = 50 ms; gerçek zamanlı, ilk jeton gecikmesi = 5.000 ms; giriş dizisi uzunluğu = 32.768; çıkış sırası uzunluğu = 1.024 çıkış, 8x sekiz yollu HGX H100 hava soğutmalı: 400 GB IB Ağ vs 18 GB200 Superchip sıvı soğutmalı: NVL36, GPU performans karşılaştırmasına göre. Tahmini performans değişebilir.

30 kat hız artışı, 8 yönlü NVLink ve InfiniBand üzerinden ölçeklendirilmiş 64 NVIDIA Hopper GPU’yu, GPT-MoE-1.8T kullanan GB200 NVL72’deki 32 Blackwell GPU ile karşılaştırıyor.

Veri işleme

Büyük veri analitiği, kuruluşların içgörüleri açığa çıkarmasına ve daha bilinçli kararlar almasına yardımcı olur. Kuruluşlar sürekli olarak uygun ölçekte veri üretir ve darboğazları hafifletmek ve depolama maliyetlerinden tasarruf etmek için çeşitli sıkıştırma tekniklerinden yararlanır. Bu veri kümelerini GPU’larda verimli bir şekilde işlemek için Blackwell mimarisi, sıkıştırılmış verilerin sıkıştırmasını yerel olarak geniş ölçekte açabilen ve analiz hatlarını uçtan uca hızlandırabilen bir donanım açma motoru sunar. Sıkıştırılmış açma motoru, LZ4, Deflate ve Snappy sıkıştırma formatları kullanılarak sıkıştırılmış verilerin sıkıştırılmasını açmayı doğal olarak destekler.

Sıkıştırmayı açma motoru belleğe bağlı çekirdek işlemlerini hızlandırır. 800 GB/s’ye kadar performans sağlar ve Grace Blackwell’in sorgu kıyaslamaları için CPU’lardan (Sapphire Rapids) 18 kat, NVIDIA H100 Tensor Core GPU’lardan 6 kat daha hızlı performans göstermesini sağlar.

Çarpıcı 8 TB/sn’lik yüksek bellek bant genişliği ve Grace CPU’nun yüksek hızlı NVlink-Chip-to-Chip (C2C) özelliği ile motor, veritabanı sorgularının tüm sürecini hızlandırır. Bu, veri analitiği ve veri bilimi kullanım senaryolarında birinci sınıf performansla sonuçlanır. Bu, kuruluşların maliyetlerini azaltırken hızlı bir şekilde içgörü elde etmelerini sağlar.

X86, H100, GB200 için saniye başına sorguları karşılaştıran 3 sütunlu çubuk grafik. 72 x86, 68'dir, 72xH100, 390'dır ve GB200 NVL72, 1277'dir; x86'dan 18 kat daha fazladır.
Şekil 5. GB200 NVL72, 72x H100 ve 72 x86 CPU’ları karşılaştıran Veritabanı Birleştirme sorgusu verimi

Fizik tabanlı simülasyonlar

Fizik tabanlı simülasyonlar hâlâ ürün tasarımı ve geliştirmenin temel dayanağıdır. Uçaklardan trenlere, köprülerden silikon çiplere ve hatta ilaçlara kadar ürünlerin simülasyon yoluyla test edilmesi ve iyileştirilmesi milyarlarca dolar tasarruf sağlıyor.

Uygulamaya özel entegre devreler, voltajları ve akımları tanımlamak için analog analiz de dahil olmak üzere, uzun ve karmaşık bir iş akışında neredeyse yalnızca CPU’lar üzerinde tasarlanmıştır. Cadence SpectreX simülatörü bir çözücü örneğidir. Aşağıdaki şekil SpectreX’in GB200’de x86 CPU’ya göre 13 kat daha hızlı çalıştığını göstermektedir.

CPU'yu 1x değeriyle ve GB200'ü 13x değeriyle gösteren bir çubuk grafik.
Şekil 6. Cadence SpectreX simülatörü GB200’de x86 CPU’ya göre 13 kat daha hızlı çalışır

Cadence SpectreX (Baharat simülatörü) | CPU: 16 çekirdek AMD Milan 75F3 veri kümesi: KeithC Design TSMC N5 | GB200 için performans projeksiyonları değişebilir

Son iki yılda sektör, temel bir araç olarak GPU ile hızlandırılmış hesaplamalı akışkanlar dinamiğine (CFD) giderek daha fazla yöneldi. Mühendisler ve ekipman tasarımcıları bunu tasarımlarının davranışını incelemek ve tahmin etmek için kullanır. Büyük bir girdap simülatörü (LES) olan Cadence Fidelity, simülasyonları GB200’de x86 CPU’ya göre 22 kata kadar daha hızlı çalıştırır.

CPU'yu 1x değeriyle ve GB200'ü 22x değeriyle gösteren bir çubuk grafik.
Şekil 7. CFD uygulamalarına yönelik büyük bir girdap simülatörü olan Cadence Fidelity, simülasyonları GB200’de x86 CPU’ya göre 22 kata kadar daha hızlı çalıştırır

Cadence Fidelity (LES CFD Çözücü)| CPU: 16 çekirdek AMD Milan 75F3 Veri kümesi: GearPump 2M hücre | GB200 için performans projeksiyonları değişebilir

GB200 NVL72’de Cadence Fidelity’nin olanaklarını keşfetmeyi sabırsızlıkla bekliyoruz. Paralel ölçeklenebilirlik ve raf başına 30 TB bellek ile daha önce hiç yakalanmamış akış ayrıntılarını yakalamayı hedefliyoruz.

Özet

Özetlemek gerekirse, GB200 NVL72 raf ölçekli tasarımını inceledik ve özellikle tek bir NVIDIA NVLink alanı üzerinden 72 Blackwell GPU’yu bağlama konusundaki benzersiz yeteneğini öğrendik. Bu, geleneksel ağlar üzerinden ölçeklendirme yapılırken karşılaşılan iletişim yükünü azaltır. Sonuç olarak, 1.8T parametreli bir MoE LLM için gerçek zamanlı çıkarım mümkün oluyor ve bu modelin eğitimi 4 kat daha hızlı oluyor.

72 adet NVLink bağlantılı Blackwell GPU’nun 30 TB birleşik belleğe sahip 130 TB/s işlem yapısı üzerinden çalıştırılması, tek bir rafta exaFLOP AI süper bilgisayarı oluşturur. Bu NVIDIA GB200 NVL72’dir.

Close Menu