Supermicro Super AI Station NVIDIA GB300 Grace Blackwell Ultra
Tüketici sınıfı iş istasyonları ile veri merkezi AI sunucuları arasındaki boşluğu kapatan, gerçek bir masaüstü AI süperbilgisayarı. Veri merkezinin gücünü masanıza taşıyan, 1 trilyon parametreli modelleri yerel olarak çalıştıran yeni nesil platform.
NVFP4
Birleşik Bellek
GPU Belleği
Çıkarım Kapasitesi
Veri Merkezini
Masanıza Taşıyın
Tüketici sınıfı iş istasyonları ile kurumsal AI sunucuları arasında büyük bir performans ve güvenlik boşluğu vardır. Supermicro Super AI Station bu boşluğu kapatır: veri merkezinde kullanılan NVIDIA GB300 mimarisini, sessiz kapalı devre sıvı soğutmayla ofis ortamına taşır.
7.1 TB/s Bellek BW
20 PFLOPS FP4
Çift Yönlü
496 GB LPDDR5X
396 GB/s Bellek BW
(Coherent Memory Pool)
(7× PCIe Gen6 hızı)
Aynı Çip,
Rack'ten Masaya
Super AI Station'ın kalbindeki NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, GB300 NVL72 rack-scale sistemlerde kullanılan teknolojinin aynısını masaüstü form faktörüne taşır. İki işlemci NVLink-C2C köprüsüyle birbirine bağlıdır; CPU ve GPU tek tutarlı bellek havuzunu paylaşır.
| Model No. | ARS-511GD-NB-LCC |
| Form Faktör | 5U Tower (Masa üstü) Paylaşımlı çalışma alanı dostu, kompakt tower tasarım |
| Platform Sınıfı | Masaüstü AI Süperbilgisayarı Tüketici iş istasyonu ile veri merkezi AI sunucusu arası segment |
| Superchip | NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip Veri merkezlerindeki GB300 ile aynı mimari |
| GPU | 1× NVIDIA Blackwell Ultra (B300) 252 GB HBM3e · 7.1 TB/s bellek bant genişliği · 20 PFLOPS NVFP4 |
| CPU | 1× NVIDIA Grace™ — 72-core ARM Neoverse V2 Entegre GPU ile NVLink-C2C aracılığıyla 900 GB/s bant genişliğiyle bağlı |
| CPU-GPU Bağlantısı | NVIDIA NVLink-C2C (Chip-to-Chip) 900 GB/s çift yönlü — PCIe Gen6'nın 7 katı bant genişliği |
| AI Performans | 20 PFLOPS (NVFP4) |
| Parametre Kapasitesi | 1 Trilyon Parametreye Kadar Çıkarım Gpt-oss-120b, Gemma 3, Qwen3, DeepSeek V3.2, Nemotron ve daha fazlası |
| MIG Desteği | Evet — Maks. 7 İzole Örnek Her örnek: bağımsız HBM3e, önbellek ve hesaplama çekirdeği |
| Toplam Birleşik Bellek | 748 GB (Coherent Memory Architecture) |
| Sistem (CPU) Belleği | 496 GB LPDDR5X 396 GB/s bellek bant genişliği |
| GPU Belleği | 252 GB HBM3e 7.1 TB/s bellek bant genişliği |
| Bellek Mimarisi | Paylaşımlı Birleşik Havuz CPU ve GPU tek adres uzayında; veri kopyalama ek yükü yok |
| Dahili Depolama | 4× M.2 PCIe 5.0 NVMe Yüksek hızlı model depolama ve veri seti okuma için optimize |
| AI İş Yükü Ağı | Çift port 400 GbE QSFP112 — NVIDIA ConnectX-8 SuperNIC™ Yüksek bant genişliği, düşük gecikme · RDMA desteği |
| Genel Ağ | 10GbE LAN |
| Yönetim Ağı | 1GbE BMC LAN Bant dışı sistem yönetimi |
| Güç Kaynağı | 1600W Titanium Seviyesi (%94 verim) NEMA 5-20 standart ofis prizi (Kuzey Amerika) · Kararlı ve güvenilir güç |
| Soğutma | Kapalı Devre Sıvı Soğutma (Closed-Loop Liquid Cooling) Sessiz operasyon · Paylaşımlı ofis ortamı dostu · Ekstra altyapı gerektirmez |
| İşletim Sistemi | Ubuntu 24.04 LTS NVIDIA AI Developer Tools ile birlikte önceden yüklenmiş |
| AI Yazılım Paketi | NVIDIA AI Enterprise (NVAIE) — Önceden Yüklü CUDA, cuDNN, TensorRT, NIM mikro servisleri, NeMo, RAPIDS dahil |
| Ajan Geliştirme | NVIDIA NemoClaw & NVIDIA OpenShell Tek komutla her zaman açık otonom ajan çalıştırma · NVIDIA Agent Toolkit |
| Desteklenen Grafik GPU'lar | NVIDIA RTX PRO 4000 Blackwell veya NVIDIA RTX PRO 2000 Blackwell — grafik render, görselleştirme |
| Kullanım Amacı | Fiziksel AI geliştirme, görsel hesaplama, 3D simülasyon ve ray-traced görselleştirme AI hesaplama ile grafik render'ı aynı sistemde birleştiren yapılandırma |
Kim İçin
Tasarlandı?
Super AI Station, AI araştırmacıları, uygulama geliştiriciler, derin teknoloji startupları ve kurumsal takımlar için özel olarak tasarlanmıştır. Veri gizliliği kritik olan ya da bulut bağımlılığını azaltmak isteyen her ortam için ideal platform.
LLM Fine-Tuning &
Model Değerlendirme
Kuruma özel veri setleriyle büyük dil modellerini yerel olarak ince ayarlamak, yinelemek ve değerlendirmek isteyen AI araştırmacıları.
Otonom AI Ajan
Geliştirme
7/24 kesintisiz çalışan, kod yazan, araçları çağıran ve görevleri özerk şekilde tamamlayan yapay zeka ajanları geliştiren ekipler.
Takım Paylaşımlı
AI İstasyonu
Birden fazla araştırmacı veya geliştiricinin aynı anda bağımsız AI projelerinde çalışması gereken araştırma laboratuvarları ve deep-tech startupları.
Güvenli & Regüle
AI Uygulamaları
Sağlık, finans, savunma ve hukuk gibi veri gizliliği ve uyumluluk kurallarının AI sistemlerinde kritik olduğu sektörler.
Fiziksel AI &
Simülasyon
Robotik, özerk araç ve endüstriyel otomasyon gibi gerçek dünya ortamlarının simüle edilmesini gerektiren fiziksel AI uygulamaları.
Bulut Bağımlılığını
Azaltma
Yüksek bulut GPU maliyetlerini optimize etmek isteyen, AI iş yüklerini kısmen veya tamamen on-premises'e taşımayı planlayan kurumsal takımlar.
Kutusundan Çıktıktan
Sonra Hazır
NVIDIA AI Enterprise (NVAIE) önceden yüklü gelir. CUDA ekosisteminin tüm kütüphaneleri, çerçeveleri ve araçları kullanıma hazır — kurulum veya yapılandırma karmaşıklığı olmadan.
Super AI Station
vs Alternatifler
| Özellik | Supermicro Super AI Station |
Tüketici Sınıfı GPU İş İstasyonu |
Bulut GPU (Saatlik Kiralama) |
Kurumsal AI Rack Sunucu |
|---|---|---|---|---|
| GPU Mimarisi | NVIDIA Blackwell Ultra (B300) — Veri Merkezi Sınıfı | RTX 4090 / PCIe GPU — Tüketici Sınıfı | Değişken, H100/A100 | HGX B300/B200 — Rack Sınıfı |
| Toplam Bellek | 748 GB Birleşik | 24-96 GB (ayrı CPU+GPU) | Sanal limit, paylaşımlı | Binlerce GB (rack) |
| Veri Gizliliği | Tam yerel, sıfır egress | Yerel | Bulut egress riski | Yerel (veri merkezi) |
| Otonom Ajan (7/24) | NemoClaw destekli | Kısıtlı (bellek yetersiz) | Maliyetli (saatlik) | Evet |
| Form Faktör | Masaüstü Tower (Ofis) | Tower/Workstation (Ofis) | — | Rack (Veri Merkezi) |
| Sessiz Çalışma | Kapalı devre sıvı soğutma | Orta (fan gürültüsü) | — | Gürültülü (DC ortamı) |
| Özel Altyapı | Standart ofis prizi yeterli | Standart yeterli | — | PDU, soğutma altyapısı |
| Data Center'a Göç | Sıfır kod değişikliği | Yeniden yazım gerekebilir | Kısmi uyumluluk | — |
| AI Enterprise Pre-installed | Kısmi |
Türkiye'nin
Supermicro Uzmanı
2009'dan bu yana Türkiye'nin katma değerli resmi Supermicro distribütörü olarak Super AI Station dahil tüm Supermicro ürünlerinde yerel stok, Türkçe teknik destek ve özel fiyatlandırma sunuyoruz.
Super AI Station'ı
Bugün Sipariş Edin
GTM Teknoloji uzman ekibi ihtiyaç analizinizi yapar, en uygun konfigürasyonu belirler ve hızlı teslimat için stoğu ayartar.
Super AI Station Teklif Formu
Kullanım senaryonuzu ve ihtiyaçlarınızı paylaşın — GTM Teknoloji ekibi en kısa sürede size özel fiyat teklifi hazırlasın. Yanıt süresi: iş günü içinde.