Nvidia H200 H100 GPU LLM içi Yüksek Bellek ve Performans - GTM Teknoloji Skip to main content
Nvidia H200NVL / H200 NVL Teknik Özellikler

NVIDIA H200 NVL Tensör Çekirdekli GPU

Yapay Zeka ve HPC iş yüklerini güçlendiriyoruz.

Daha Büyük, Daha Hızlı Bellekle Daha Yüksek Performans

NVIDIA Hopper™ mimarisine dayanan NVIDIA H200 NVL, saniyede 4,8 terabayt (TB/s) hızında 141 gigabayt (GB) HBM3e belleği sunan ilk GPU’dur; bu, NVIDIA H100 Tensor Core GPU’nun kapasitesinin neredeyse iki katıdır ve 1,4 kat daha fazla bellek bant genişliğine sahiptir. H200’ün daha büyük ve daha hızlı belleği, daha iyi enerji verimliliği ve daha düşük toplam sahip olma maliyetiyle HPC iş yükleri için bilimsel bilgi işlemi ilerletirken, üretken AI ve LLM’leri hızlandırır.

Yüksek Performanslı LLM Çıkarımıyla İçgörülerin Kilidini Açın

Sürekli gelişen yapay zeka ortamında, işletmeler çeşitli çıkarım ihtiyaçlarını karşılamak için LLM’lere güvenir. Bir yapay zeka çıkarım hızlandırıcısı, büyük bir kullanıcı tabanına ölçeklendirildiğinde en düşük TCO’da en yüksek verimi sağlamalıdır.

H200, Llama2 gibi LLM’leri işlerken çıkarım hızını H100 GPU’larına kıyasla 2 kata kadar artırır.

Veri Sayfası İndirNvidia Edu ve Inception İndirimleri için bizimle iletişime geçin.
ÖzellikDetay
GPU MimarisiNVIDIA Hopper™
CUDA Çekirdek Sayısı16,896
Tensör Çekirdek Sayısı528
Bellek Kapasitesi141 GB HBM3e
Bellek TürüHBM3e (High Bandwidth Memory)
Bellek Bant Genişliği4.8 TB/s
FP64 Performansı67 TFLOPS
FP32 Performansı67 TFLOPS
FP16 Performansı1979 TFLOPS
INT8 Performansı3958 TFLOPS
BağlantıNVIDIA NVLink® (900 GB/s çift yönlü bant genişliği)
NVSwitch DesteğiEvet (Büyük sistemlerde çoklu GPU iletişimi için)
Performans ArtışıLLM çıkarımında 1.8X, HPC iş yüklerinde 110X daha hızlı
AI İş YükleriGenerative AI, HPC, LLM çıkarımı, derin öğrenme
Enerji Verimliliği%50’ye kadar daha yüksek enerji verimliliği
Toplam Güç Tüketimi600W'a kadar yapılandırılabilir.
Form FaktörüPCIe x16 Gen5
İşlem Düğümleri2 veya 4 yollu NVIDIA NVLink köprüsü: 900 GB/sn PCIe Gen5: 128 GB/sn
SoğutmaHava ve sıvı soğutma seçenekleri
Desteklenen YazılımlarNVIDIA AI Enterprise, CUDA, cuDNN, TensorRT
AI Enterprise Desteği5 yıl
Uygulama AlanlarıBilimsel araştırmalar, simülasyonlar, yapay zeka çıkarımı, doğal dil işleme (NLP), büyük dil modelleri (LLMs)