NVIDIA H200NVL NVLink 141GB HBM3e PCIe | 900-21010-0040-000
$32.500,00 + KDV
NVIDIA H200 NVL: Generative AI ve LLM’ler İçin 564 GB Birleşik Bellek Gücü
NVIDIA H200 NVL, Hopper™ Mimarisi tabanlı, kurumsal veri merkezleri için tasarlanmış en yeni PCIe form faktörlü Tensor Core GPU’dur. Büyük Dil Modelleri (LLM) çıkarımında önceki nesile göre 1.7 kata kadar hız sunarak, yapay zeka iş yüklerinizi rekor sürede tamamlayın. 141 GB ultra hızlı HBM3e bellek ve 4.8 TB/s bant genişliği ile dünyanın en büyük modellerini kolayca çalıştırın. 4-yollu NVLink desteği sayesinde, tek bir sunucuda 564 GB’a kadar birleşik (pooled) GPU belleği oluşturarak performanstan ödün vermeden ölçeklenin. Hava soğutmalı tasarımı, mevcut kurumsal raflarınıza sorunsuz entegrasyon ve üstün enerji verimliliği sağlar. NVIDIA AI Enterprise yazılımı ile birlikte sunulan H200 NVL, yapay zekanın geleceğini bugünden yakalamak isteyen işletmeler için idealdir.
Üretken Yapay Zeka ve HPC için GPU
NVIDIA H200 GPU, çığır açan performans ve bellek özellikleriyle üretken yapay zeka ve yüksek performanslı bilgi işlem (HPC) iş yüklerini güçlendirir. HBM3E teknolojisine sahip ilk GPU olan H200'ün daha büyük ve daha hızlı belleği, üretken yapay zeka ve büyük dil modellerinin (LLM) hızlanmasını sağlarken, HPC iş yükleri için bilimsel hesaplamayı da ilerletir.
- GPU Belleği (HBM3e): 141 GB HBM3e
- NVLink Bağlantısı 2- veya 4-yollu yapılandırma, 900 GB/s çift yönlü bant genişliği (GPU başına)
- 2-yollu NVLink ile 282GB veya 4-yollu NVLink ile 564GB Birleşik HBM3e Bellek
- Yazılım Desteği: NVIDIA AI Enterprise (5 yıl abonelik dahil)
H200 NVL ile Ana Akım Kurumsal Sunucular için Yapay Zekayı Hızlandırma
Daha Büyük, Daha Hızlı Bellekle Daha Yüksek Performans
NVIDIA H200 NVL, esnek yapılandırmalar gerektiren düşük güç tüketimli, hava soğutmalı kurumsal raf tasarımları için idealdir ve boyutu ne olursa olsun her türlü yapay zeka ve HPC iş yükü için hızlanma sağlar. NVIDIA NVLink™ ile bağlanan dört adede kadar GPU ve 1,5 kat bellek artışıyla, büyük dil modeli (LLM) çıkarımı 1,7 kata kadar hızlandırılabilir ve HPC uygulamaları H100 NVL'ye göre 1,3 kata kadar daha fazla performans elde eder.
Üst Düzey Performans Deneyimi Yaşayın
| H200 SXM¹ | H200 NVL¹ | |
| FP64 | 34 TFLOPS | 30 TFLOPS |
| FP64 Tensor Core | 67 TFLOPS | 60 TFLOPS |
| FP32 | 67 TFLOPS | 60 TFLOPS |
| TF32 Tensor Core² | 989 TFLOPS | 835 TFLOPS |
| BFLOAT16 Tensor Core² | 1,979 TFLOPS | 1,671 TFLOPS |
| FP16 Tensor Core² | 1,979 TFLOPS | 1,671 TFLOPS |
| FP8 Tensor Core² | 3,958 TFLOPS | 3,341 TFLOPS |
| INT8 Tensor Core² | 3,958 TFLOPS | 3,341 TFLOPS |
| GPU Memory | 141GB | 141GB |
| GPU Memory Bandwidth | 4.8TB/s | 4.8TB/s |
| Decoders | 7 NVDEC 7 JPEG | 7 NVDEC 7 JPEG |
| Confidential Computing | Supported | Supported |
| Max Thermal Design Power (TDP) | Up to 700W (configurable) | Up to 600W (configurable) |
| Multi-Instance GPUs | Up to 7 MIGs @18GB each | Up to 7 MIGs @16.5GB each |
| Form Factor | SXM | PCIe Dual-slot air-cooled |
| Interconnect | NVIDIA NVLink™: 900GB/s PCIe Gen5: 128GB/s | 2- or 4-way NVIDIA NVLink bridge: 900GB/s per GPU PCIe Gen5: 128GB/s |
| Server Options | NVIDIA HGX™ H200 partner and NVIDIA-Certified Systems™ with 4 or 8 GPUs | NVIDIA MGX™ H200 NVL partner and NVIDIA-Certified Systems with up to 8 GPUs |
| NVIDIA AI Enterprise | Add-on | Included |
Kurumsal Düzeyde Hazır Çözüm:
Yapay Zeka Yazılımı Geliştirme ve Dağıtımını Kolaylaştırıyor
NVIDIA H200 NVL, beş yıllık NVIDIA Enterprise aboneliğiyle birlikte gelir. Bu abonelik, kurumsal yapay zekaya hazır bir platform oluşturma şeklinizi basitleştirmek için NVIDIA AI Enterprise'ı içerir. H200, bilgisayarlı görme, konuşma yapay zekası, geri alma artırılmış üretim (RAG) ve daha fazlası dahil olmak üzere üretime hazır üretken yapay zeka çözümleri için yapay zeka geliştirme ve dağıtımını hızlandırır. NVIDIA AI Enterprise, kurumsal üretken yapay zeka dağıtımını hızlandırmak için tasarlanmış, kullanımı kolay bir mikro hizmet seti olan NVIDIA NIM ™'i içerir. Dağıtımlar, kurumsal düzeyde güvenlik, yönetilebilirlik, kararlılık ve destek sunar. Bu da daha hızlı iş değeri ve eyleme geçirilebilir içgörüler sunan, performans açısından optimize edilmiş yapay zeka çözümleriyle sonuçlanır.
