Supermicro, HBM3e Belleğe Sahip Yakında Gelecek NVIDIA HGX H200 ve MGX Grace Hopper Platformlarıyla Yapay Zeka Çözümlerini Genişletiyor
San Jose, Kaliforniya, Denver, CO., Süper Bilgi İşlem Konferansı (SC23) — 13 Kasım 2023 – Supermicro, Inc. (NASDAQ: SMCI), AI, Bulut, Depolama ve 5G/Edge için Toplam BT Çözüm Sağlayıcısı, H200 Tensör Çekirdekli GPU’larla oluşturulan yeni NVIDIA HGX H200 için yakında sunulacak destekle yapay zeka erişimini genişletiyor. Supermicro’nun 8U ve 4U Evrensel GPU Sistemleri de dahil olmak üzere endüstri lideri AI platformları, HGX H200 8-GPU, 4-GPU için anında hazırdır ve NVIDIA H100 Tensor Core’a kıyasla neredeyse 2 kat kapasite ve 1,4 kat daha yüksek bant genişliğine sahip HBM3e belleğe sahiptir GPU. Ayrıca, en geniş Supermicro NVIDIA MGXTM sistemleri portföyü, HBM3e belleğe sahip yakında çıkacak NVIDIA Grace Hopper Superchip’i destekler. Benzeri görülmemiş performans, ölçeklenebilirlik ve güvenilirlik ile Supermicro’nun raf ölçekli yapay zeka çözümleri, artan model boyutlarının gelişen taleplerini karşılarken, hesaplama açısından yoğun üretken yapay zeka, büyük dil modeli (LLM) eğitimi ve HPC uygulamalarının performansını hızlandırır. Supermicro, yapı taşı mimarisini kullanarak yeni teknolojiyi hızlı bir şekilde pazara sunarak müşterilerin daha kısa sürede daha üretken olmalarını sağlayabilir.
Supermicro ayrıca, en yeni Supermicro sıvı soğutma çözümünü kullanan, sıvı soğutmalı 4U sistemde NVIDIA HGX H100 8 GPU sistemlerine sahip sektörün en yüksek yoğunluklu sunucusunu da tanıtıyor. Sektörün en kompakt, yüksek performanslı GPU sunucusu, veri merkezi operatörlerinin ayak izlerini ve enerji maliyetlerini azaltmasına olanak tanırken, tek bir rafta mevcut en yüksek performanslı yapay zeka eğitim kapasitesini sunar. En yüksek yoğunluklu GPU sistemleriyle kuruluşlar, son teknoloji sıvı soğutma çözümlerinden yararlanarak TCO’larını azaltabilir.
Supermicro Başkanı ve CEO’su Charles Liang, “Supermicro, AI eğitimi ve HPC uygulamaları için en gelişmiş sistemleri tasarlamak üzere NVIDIA ile ortaklık yapıyor” dedi. “Yapı taşı mimarimiz, en son teknolojiyi pazarda ilk kez sunmamızı sağlayarak müşterilerimizin üretken yapay zekayı her zamankinden daha hızlı dağıtmasına olanak tanıyor. Dünya çapındaki üretim tesislerimizle bu yeni sistemleri müşterilerimize daha hızlı ulaştırabiliyoruz. 900 GB/s hızında NVIDIA® NVLink™ ve NVSwitch™ yüksek hızlı GPU-GPU ara bağlantılarına sahip NVIDIA H200 GPU’yu kullanan yeni sistemler, artık raf ölçekli yapay zeka çözümlerimizde düğüm başına 1,1 TB’a kadar yüksek bant genişliğine sahip HBM3e bellek sağlıyor. Günümüzün Yüksek Lisans’ları ve üretken yapay zeka için en yüksek model paralelliği performansını sağlayın. Ayrıca, raf ölçeğinde yapay zeka çözümlerimizin yoğunluğunu iki katına çıkaran ve günümüzün hızlandırılmış veri merkezi için yeşil bilgi işlem elde etmek amacıyla enerji maliyetlerini azaltan, dünyanın en kompakt NVIDIA HGX 8-GPU sıvı soğutmalı sunucusunu sunmaktan da heyecan duyuyoruz.”
NVIDIA GPU’lu Supermicro sunucular hakkında daha fazla bilgi edinin
Supermicro, farklı form faktörlerine sahip geniş bir AI sunucu portföyü tasarlar ve üretir. Dört yollu ve sekiz yollu NVIDIA HGX H100 GPU’lara sahip popüler 8U ve 4U Evrensel GPU sistemleri artık daha büyük dil modellerini daha kısa sürede eğitmek üzere yeni H200 GPU’lar için hemen hazır. Her NVIDIA H200 GPU, 4,8 TB/s bant genişliğine sahip 141 GB bellek içerir.
HPC, AI ve Veri Merkezi Ürün Çözümleri Direktörü Dion Harris şunları söyledi: “Supermicro’nun NVIDIA HGX H200’ü kullanan yeni sunucu tasarımları, üretken yapay zeka ve HPC iş yüklerini hızlandırmaya yardımcı olacak, böylece kuruluşlar ve kuruluşlar yapay zeka altyapılarından en iyi şekilde yararlanabilecekler.” NVIDIA’da kuantum hesaplama. “Yüksek hızlı HBM3e belleğe sahip NVIDIA H200 GPU, çeşitli iş yükleri için büyük miktarda veriyi işleyebilecek.”
Ek olarak, yakın zamanda piyasaya sürülen NVIDIA GH200 Grace Hopper Süper Çiplerine sahip Supermicro MGX sunucular, NVIDIA H200 GPU’yu HBM3e bellekle birleştirecek şekilde tasarlandı.
Yeni NVIDIA GPU’lar, Üretken Yapay Zekayı daha kısa sürede eğitmek için daha kompakt ve verimli kümelere sığacak şekilde 100 milyarlarca parametreyle günümüzün ve geleceğin büyük dil modellerinin (LLM’ler) hızlandırılmasına olanak tanır ve ayrıca birden fazla büyük modelin gerçek anlamda tek bir sisteme sığmasına olanak tanır Milyonlarca kullanıcıya Üretken Yapay Zeka hizmeti sunmak için zamanlı LLM çıkarımı.
Supermicro, SC23’te, yapay zekanın gelişimini desteklemek üzere yoğunluğu ve verimliliği daha da artıran en yeni sıvı soğutma yenilikleriyle birlikte sekiz yollu NVIDIA HGX H100’ü içeren 4U Evrensel GPU Sistemini sergiliyor. Supermicro’nun yeşil hesaplama için tasarlanmış endüstri lideri GPU ve CPU soğuk plakaları, CDU (soğutma dağıtım ünitesi) ve CDM (soğutma dağıtım manifoldu) ile yeni sıvı soğutmalı 4U Evrensel GPU Sistemi aynı zamanda sekiz yollu NVIDIA HGX H200 için de hazırdır. bu da Supermicro’nun tamamen entegre sıvı soğutma rafı çözümleri ve L10, L11 ve L12 doğrulama testlerimiz aracılığıyla veri merkezi ayak izlerini, güç maliyetini ve dağıtım engellerini önemli ölçüde azaltacaktır.
