




NVIDIA H200NVL NVLink 141GB HBM3e PCIe | 900-21010-0040-000
$32.500,00 + KDV
NVIDIA H200 NVL: Generative AI ve LLM’ler İçin 564 GB Birleşik Bellek Gücü
NVIDIA H200 NVL, Hopper™ Mimarisi tabanlı, kurumsal veri merkezleri için tasarlanmış en yeni PCIe form faktörlü Tensor Core GPU’dur. Büyük Dil Modelleri (LLM) çıkarımında önceki nesile göre 1.7 kata kadar hız sunarak, yapay zeka iş yüklerinizi rekor sürede tamamlayın. 141 GB ultra hızlı HBM3e bellek ve 4.8 TB/s bant genişliği ile dünyanın en büyük modellerini kolayca çalıştırın. 4-yollu NVLink desteği sayesinde, tek bir sunucuda 564 GB’a kadar birleşik (pooled) GPU belleği oluşturarak performanstan ödün vermeden ölçeklenin. Hava soğutmalı tasarımı, mevcut kurumsal raflarınıza sorunsuz entegrasyon ve üstün enerji verimliliği sağlar. NVIDIA AI Enterprise yazılımı ile birlikte sunulan H200 NVL, yapay zekanın geleceğini bugünden yakalamak isteyen işletmeler için idealdir.
NVIDIA H200 NVL
Enterprise GPU
Yapay zeka ve HPC iş yüklerini güçlendiriyoruz.
Yapay zeka ve HPC iş yüklerini güçlendiriyoruz.
Üretken Yapay Zeka ve HPC için GPU
NVIDIA H200 GPU, çığır açan performans ve bellek özellikleriyle üretken yapay zeka ve yüksek performanslı bilgi işlem (HPC) iş yüklerini güçlendirir. HBM3E teknolojisine sahip ilk GPU olan H200'ün daha büyük ve daha hızlı belleği, üretken yapay zeka ve büyük dil modellerinin (LLM) hızlanmasını sağlarken, HPC iş yükleri için bilimsel hesaplamayı da ilerletir.
- GPU Belleği (HBM3e): 141 GB HBM3e
- NVLink Bağlantısı 2- veya 4-yollu yapılandırma, 900 GB/s çift yönlü bant genişliği (GPU başına)
- 2-yollu NVLink ile 282GB veya 4-yollu NVLink ile 564GB Birleşik HBM3e Bellek
- Yazılım Desteği: NVIDIA AI Enterprise (5 yıl abonelik dahil)
H200 NVL ile Ana Akım Kurumsal Sunucular için Yapay Zekayı Hızlandırma

Daha Büyük, Daha Hızlı Bellekle Daha Yüksek Performans
NVIDIA H200 NVL, esnek yapılandırmalar gerektiren düşük güç tüketimli, hava soğutmalı kurumsal raf tasarımları için idealdir ve boyutu ne olursa olsun her türlü yapay zeka ve HPC iş yükü için hızlanma sağlar. NVIDIA NVLink™ ile bağlanan dört adede kadar GPU ve 1,5 kat bellek artışıyla, büyük dil modeli (LLM) çıkarımı 1,7 kata kadar hızlandırılabilir ve HPC uygulamaları H100 NVL'ye göre 1,3 kata kadar daha fazla performans elde eder.
Üst Düzey Performans Deneyimi Yaşayın
| H200 SXM¹ | H200 NVL¹ | |
| FP64 | 34 TFLOPS | 30 TFLOPS |
| FP64 Tensor Core | 67 TFLOPS | 60 TFLOPS |
| FP32 | 67 TFLOPS | 60 TFLOPS |
| TF32 Tensor Core² | 989 TFLOPS | 835 TFLOPS |
| BFLOAT16 Tensor Core² | 1,979 TFLOPS | 1,671 TFLOPS |
| FP16 Tensor Core² | 1,979 TFLOPS | 1,671 TFLOPS |
| FP8 Tensor Core² | 3,958 TFLOPS | 3,341 TFLOPS |
| INT8 Tensor Core² | 3,958 TFLOPS | 3,341 TFLOPS |
| GPU Memory | 141GB | 141GB |
| GPU Memory Bandwidth | 4.8TB/s | 4.8TB/s |
| Decoders | 7 NVDEC 7 JPEG | 7 NVDEC 7 JPEG |
| Confidential Computing | Supported | Supported |
| Max Thermal Design Power (TDP) | Up to 700W (configurable) | Up to 600W (configurable) |
| Multi-Instance GPUs | Up to 7 MIGs @18GB each | Up to 7 MIGs @16.5GB each |
| Form Factor | SXM | PCIe Dual-slot air-cooled |
| Interconnect | NVIDIA NVLink™: 900GB/s PCIe Gen5: 128GB/s | 2- or 4-way NVIDIA NVLink bridge: 900GB/s per GPU PCIe Gen5: 128GB/s |
| Server Options | NVIDIA HGX™ H200 partner and NVIDIA-Certified Systems™ with 4 or 8 GPUs | NVIDIA MGX™ H200 NVL partner and NVIDIA-Certified Systems with up to 8 GPUs |
| NVIDIA AI Enterprise | Add-on | Included |
Kurumsal Düzeyde Hazır Çözüm:
Yapay Zeka Yazılımı Geliştirme ve Dağıtımını Kolaylaştırıyor
NVIDIA H200 NVL, beş yıllık NVIDIA Enterprise aboneliğiyle birlikte gelir. Bu abonelik, kurumsal yapay zekaya hazır bir platform oluşturma şeklinizi basitleştirmek için NVIDIA AI Enterprise'ı içerir. H200, bilgisayarlı görme, konuşma yapay zekası, geri alma artırılmış üretim (RAG) ve daha fazlası dahil olmak üzere üretime hazır üretken yapay zeka çözümleri için yapay zeka geliştirme ve dağıtımını hızlandırır. NVIDIA AI Enterprise, kurumsal üretken yapay zeka dağıtımını hızlandırmak için tasarlanmış, kullanımı kolay bir mikro hizmet seti olan NVIDIA NIM ™'i içerir. Dağıtımlar, kurumsal düzeyde güvenlik, yönetilebilirlik, kararlılık ve destek sunar. Bu da daha hızlı iş değeri ve eyleme geçirilebilir içgörüler sunan, performans açısından optimize edilmiş yapay zeka çözümleriyle sonuçlanır.

SIKÇA SORULAN SORULAR
NVIDIA H200 NVL 141GB HBM3e PCIe nedir?
NVIDIA Hopper mimarisi üzerine kurulu, 141GB HBM3e bellek ve 4.8TB/s bellek bant genişliğiyle — H100’ün neredeyse iki katı kapasiteyle NVIDIA üretilmiş veri merkezi GPU hızlandırıcısıdır. PCIe Gen 5.0 x16 arayüzü, pasif soğutma ve 2 veya 4 yönlü NVLink Bridge (900GB/s) desteğiyle mevcut sunucu altyapısına kolayca entegre edilebilen kurumsal AI ve HPC kartıdır.
NVIDIA H200 NVL ile H100 arasındaki fark nedir?
H200, H100’e kıyasla 141GB HBM3e bellek ile yaklaşık iki kat daha fazla GPU belleği ve 1.4 kat daha yüksek bellek bant genişliği sunar. Llama 2 70B gibi büyük dil modellerinde inference performansı H100’e kıyasla 1.7 kat, HPC iş yüklerinde ise 1.3 kat daha yüksektir.
H200 NVL PCIe mevcut H100 veya A100 sunucularımda çalışır mı?
H200 NVL PCIe, H100 ile aynı Hopper mimarisini ve CUDA stack’ini paylaşır — yazılım uyumluluğu sorun çıkarmaz. Ancak fiziksel olarak mevcut sunucunuza takılıp takılamayacağı sunucunun PCIe slot sayısı, güç kapasitesi (700W TDP) ve pasif soğutma için yeterli hava akışı olup olmadığına bağlıdır. GTM Teknoloji olarak mevcut altyapınızın H200 NVL ile uyumluluğunu değerlendirmenize teknik danışmanlık hizmeti sunuyoruz.
NVIDIA H200 NVL hangi iş yükleri için uygundur?
Düşük güç tüketimli hava soğutmalı kurumsal rack tasarımları için ideal olan H200 NVL, her ölçekteki AI ve HPC iş yüklerini hızlandırır. LLM eğitimi ve fine-tuning, büyük ölçekli inference, bilimsel simülasyon, genomik araştırma, finansal analiz ve iklim modellemesi başlıca kullanım alanlarıdır.
NVIDIA H200 NVL 141GB Türkiye'de nereden temin edilir?
GTM Teknoloji, NVIDIA NPN yetkili iş ortağı sıfatıyla H200 NVL kartını Türkiye’de resmi kanal üzerinden tedarik etmektedir. Teknik boyutlandırma, sunucu uyumluluk kontrolü ve kurulum danışmanlığıyla birlikte teklif almak için iletişim formunu kullanabilirsiniz.
NVIDIA HOPPER MİMARİSİ · NPN YETKİLİ İŞ ORTAĞI
NVIDIA H200 NVL ile AI Altyapınızı
Bir Üst Seviyeye Taşıyın
141GB HBM3e ve 4.8TB/s bellek bant genişliğiyle mevcut H100 veya A100 altyapınızı yükseltmek ya da yeni AI sunucunuzu yapılandırmak için GTM Teknoloji uzman ekibiyle iletişime geçin.
| Marka | NVIDIA, PNY, Supermicro |
|---|---|
| GPU Tipi | Datacenter GPU |
| GPU Form Faktör | Dual Slot – Full Profile PCIe |
| GPU - Bellek Kapasitesi | 141GB |
| GPU - Soğutma Tipi | Pasif Soğutma |
| GPU - PCIe Generation | PCIe Gen5 x16 |
| GPU - NVLink Desteği | 2x NVLink, 4x NVLink |
NVIDIA: Yapay Zeka ve Yüksek Performanslı Hesaplamanın Küresel Lideri
NVIDIA, GPU tabanlı hesaplama teknolojileriyle yapay zeka, derin öğrenme, HPC, görsel işleme ve veri merkezi altyapısında dünya genelinde belirleyici güç konumundadır. Kuruluşundan bu yana grafik işlemcinin sınırlarını sürekli genişleten NVIDIA; bugün H100, H200, B100, B200 ve GB200 NVL72 gibi veri merkezi GPU'larıyla LLM eğitimi, inference, simülasyon ve bilimsel hesaplama alanlarında rakipsiz bir platform sunmaktadır. CUDA ekosistemi, NVLink/NVSwitch fabric mimarisi ve DGX/HGX sistemleriyle NVIDIA, yapay zeka altyapısının fiili standardını belirlemeye devam etmektedir.
GTM Teknoloji: Türkiye'de NVIDIA NPN Yetkili İş Ortağı
GTM Teknoloji, NVIDIA NPN (NVIDIA Partner Network) yetkili iş ortağı sıfatıyla NVIDIA'nın kurumsal ve profesyonel ürün portföyünü Türkiye pazarına taşımaktadır. RTX PRO iş istasyonu GPU'larından veri merkezi ölçekli H100/H200 sistemlerine, NVIDIA AI Enterprise yazılım lisanslarından InfiniBand ağ altyapısına kadar geniş bir yelpazede teknik danışmanlık, boyutlandırma ve tedarik hizmeti sunulmaktadır. Yapay zeka projeniz için doğru NVIDIA platformunu birlikte belirleyelim.
PNY Technologies: NVIDIA'nın Küresel Güvenilir İş Ortağı
1985'te New York'ta bellek çipleri alım-satımıyla kurulan PNY Technologies, bugün 50'den fazla ülkede faaliyet gösteren ve 30 yılı aşkın deneyimiyle kurumsal BT, yapay zeka ve yüksek performanslı hesaplama alanlarında küresel bir teknoloji markasına dönüşmüştür. NVIDIA'nın profesyonel grafik kartları için yetkili ana kanal iş ortağı konumundaki PNY; NVIDIA RTX PRO iş istasyonu GPU'ları, veri merkezi hızlandırıcıları, bellek modülleri ve SSD çözümleriyle kurumsal segmentin en kapsamlı portföylerinden birini sunmaktadır. 2021 yılında PNY, NVIDIA'nın tüm InfiniBand ve Ethernet ağ anahtarları ile adaptör kartlarının EMEA bölgesindeki doğrudan distribütörü olma yetkisini de kazanmıştır. NVIDIA vGPU, NVIDIA AI Enterprise ve NVIDIA Omniverse Enterprise gibi yazılım çözümlerini de portföyüne katan PNY, donanımın ötesinde uçtan uca yapay zeka ve sanallaştırma platformları sunmaktadır.
GTM Teknoloji olarak PNY ürünlerini Türkiye'de yetkili kanal üzerinden tedarik ediyor; profesyonel GPU, bellek ve depolama çözümlerinde teknik danışmanlık ve satış sonrası destek hizmetleri sunuyoruz.
Supermicro Hakkında Yüksek performanslı, yüksek verimli sunucu teknolojisi ve inovasyonda küresel bir lider olarak, veri merkezi, bulut bilgi işlem, kurumsal BT, büyük veri, HPC ve yerleşik pazarlar için uçtan uca yeşil bilgi işlem çözümleri geliştiriyor ve sağlıyoruz. Building Block Solutions® yaklaşımımız, geniş bir SKU yelpazesi sunmamızı sağlar ve gereksinimlerinize göre uygulama için optimize edilmiş çözümler oluşturmamızı ve sunmamızı sağlar.Supermicro: Yapay Zeka Çağının Sunucu Altyapısını Şekillendiren Küresel Güç
Supermicro (NASDAQ: SMCI), yapay zeka, bulut, depolama ve 5G/Edge alanlarında uygulama odaklı toplam BT çözümleri sunan küresel bir teknoloji lideridir. Ürünleri ABD, Tayvan ve Hollanda'daki tesislerinde yerli üretim anlayışıyla tasarlanan ve üretilen Supermicro, Server Building Block Solutions® mimarisiyle müşterilerin iş yüklerine özel sistemler oluşturmasına olanak tanır; işlemci, bellek, GPU, depolama, ağ ve soğutma bileşenleri esnek yapı taşları olarak bir araya getirilir. NVIDIA GB300 NVL72, HGX B300 ve Vera Rubin NVL72 gibi en güncel yapay zeka platformlarını destekleyen Supermicro, sıvı soğutmalı raf ölçekli sistemlerden masaüstü AI iş istasyonlarına uzanan geniş portföyüyle veri merkezi altyapısının her katmanında çözüm üretmektedir. Aylık 5.000 raf kapasitesine ulaşan küresel üretim gücü ve kapsamlı test altyapısıyla Supermicro, büyük ölçekli projeleri haftalar içinde teslim edebilen ender üreticilerden biridir. GTM Teknoloji, 2009'dan bu yana Türkiye'nin resmi Supermicro distribütörü olarak rack sunuculardan GPU kümelerine, depolama sistemlerinden edge platformlarına kadar tam portföyü yetkili kanal güvencesiyle sunmakta; teknik boyutlandırma, entegrasyon ve satış sonrası destek hizmetleriyle müşterilerine uçtan uca ortaklık sağlamaktadır.
https://www.supermicro.com/en/wheretobuy
