Supermicro Nvidia AI Station ile Performansı Artırın - GTM Teknoloji Skip to main content

Yapay zeka çağını güçlendirmek için özel olarak tasarlanmış en yeni geliştirme platformu ile tanışın.. Şimdi Sipariş Verin Supermicro Super AI Station NVIDIA GB300 Grace Blackwell™ Ultra Desktop SuperChip Yapay Zeka İş İstasyonu
Supermicro Super AI Station | GTM Teknoloji — Türkiye Resmi Distribütörü
ARS-511GD-NB-LCC · GTC 2026'da Duyuruldu · Stokta

Supermicro Super AI Station NVIDIA GB300 Grace Blackwell Ultra

Tüketici sınıfı iş istasyonları ile veri merkezi AI sunucuları arasındaki boşluğu kapatan, gerçek bir masaüstü AI süperbilgisayarı. Veri merkezinin gücünü masanıza taşıyan, 1 trilyon parametreli modelleri yerel olarak çalıştıran yeni nesil platform.

20
PFLOPS
NVFP4
748
GB Toplam
Birleşik Bellek
252
GB HBM3e
GPU Belleği
1T
Parametre
Çıkarım Kapasitesi
NVIDIA AI Enterprise Pre-installed
Kapalı Devre Sıvı Soğutma
Ubuntu 24.04 LTS Hazır
Super AI Station
GB300 Grace Blackwell Ultra
5U Tower Form
DLC Sıvı Soğutma
400G ConnectX-8
20 PFLOPS
NVFP4 Hesaplama2018'deki ulusal süperbilgisayarlarla kıyaslanabilir güç
748 GB
Birleşik BellekCPU + GPU tek tutarlı bellek havuzu
900 GB/s
NVLink-C2C Bant GenişliğiCPU-GPU çift yönlü bağlantı
7× MIG
Multi-Instance GPUAynı anda 7 izole kullanıcı oturumu
1600W
Titanium PSU %94Standart ofis prizi ile çalışır

Veri Merkezini
Masanıza Taşıyın

Tüketici sınıfı iş istasyonları ile kurumsal AI sunucuları arasında büyük bir performans ve güvenlik boşluğu vardır. Supermicro Super AI Station bu boşluğu kapatır: veri merkezinde kullanılan NVIDIA GB300 mimarisini, sessiz kapalı devre sıvı soğutmayla ofis ortamına taşır.

Veri Gizliliği & KVKK Uyumu
Kurumsal veri ve fikri mülkiyet buluta çıkmaz. Tüm model eğitimi ve çıkarım yerel ortamda gerçekleşir — tam KVKK uyumu, sıfır bulut egress maliyeti.
Plug-and-Play AI Geliştirme
NVIDIA AI Enterprise önceden kurulu gelir. Sıfırdan kurulum gerekmez — kutusundan çıktıktan sonra dakikalar içinde büyük dil modellerini çalıştırmaya başlayın.
Takım İçi Paylaşımlı Kullanım
MIG teknolojisi ile GPU 7 izole örneğe bölünür. Birden fazla araştırmacı veya geliştirici aynı anda, birbirinden bağımsız oturumlarda çalışabilir.
7/24 Kesintisiz Otonom Ajan
NVIDIA NemoClaw ile güçlü, 24 saat kesintisiz çalışan otonom AI ajanları yerel olarak çalıştırılabilir. Kalıcı hesaplama, kalıcı bellek, kalıcı durum — bulut GPU'larının sunamadığı mimari avantaj.
20 PF
NVFP4 Performans
2018'deki dünyanın en hızlı 10 süperbilgisayarından birinin hesaplama gücü — masanızda
1T+
Parametre Desteği
Trillion-parameter model çıkarımı için yeterli bellek — GPT-4 sınıfı modeller yerel olarak
748 GB
Birleşik Bellek
CPU'nun 496 GB LPDDR5X + GPU'nun 252 GB HBM3e belleği tek tutarlı havuzda birleşir
0 dB
Pratik Gürültü
Kapalı devre sıvı soğutma ile ofis ve paylaşımlı çalışma alanı dostu sessiz tasarım
NEMA
Standart Prize Uyum
Kuzey Amerika'da NEMA 5-20 standart ofis prizi ile çalışır — özel güç altyapısı gerekmez
Air Gap
İzole Ortam Desteği
Fiziksel ağ yalıtımı ile gizli ve regüle edilmiş ortamlarda otonom ajan çalıştırma desteği
NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip — Mimari
GPU Çekirdeği
NVIDIA Blackwell Ultra (B300)
252 GB HBM3e
7.1 TB/s Bellek BW
20 PFLOPS FP4
NVLink-C2C
900 GB/s
Çift Yönlü
CPU Çekirdeği
NVIDIA Grace™ 72-core
ARM Neoverse V2
496 GB LPDDR5X
396 GB/s Bellek BW
748 GB
Toplam Birleşik Bellek
(Coherent Memory Pool)
900 GB/s
CPU↔GPU Bant Genişliği
(7× PCIe Gen6 hızı)
Bağlantı & I/O
NVIDIA ConnectX-8 SuperNIC™
Çift port 400 GbE QSFP112 — yüksek bant genişliği, düşük gecikme
400G × 2
10GbE LAN
Genel ağ bağlantısı için 10 Gigabit Ethernet
10GbE
1GbE BMC Yönetim LAN
Bant dışı sistem yönetimi için ayrı BMC ağ portu
BMC
4× M.2 PCIe 5.0 NVMe Depolama
Yüksek hızlı yerel depolama — model dosyaları ve veri setleri için
PCIe 5.0
NVIDIA GB300 Mimarisi

Aynı Çip,
Rack'ten Masaya

Super AI Station'ın kalbindeki NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, GB300 NVL72 rack-scale sistemlerde kullanılan teknolojinin aynısını masaüstü form faktörüne taşır. İki işlemci NVLink-C2C köprüsüyle birbirine bağlıdır; CPU ve GPU tek tutarlı bellek havuzunu paylaşır.

Birleşik Bellek Mimarisi (Coherent Memory)
CPU'nun 496 GB LPDDR5X ve GPU'nun 252 GB HBM3e belleği ayrı adres uzayları yerine tek birleşik 748 GB havuzda çalışır. Veri kopyalama ek yükü ortadan kalkar, büyük model çıkarımı dramatik biçimde hızlanır.
20 PFLOPS FP4 Hesaplama
NVIDIA Blackwell Ultra GPU'nun FP4 Tensor Core'ları ile 20 petaFLOPS yapay zeka hesaplama gücü. Trillion-parameter LLM çıkarımı, fine-tuning ve model değerlendirme gerçek zamanlı yanıt sunar.
MIG — 7 İzole Kullanıcı Oturumu
Multi-Instance GPU teknolojisi ile GPU en fazla 7 tamamen izole edilmiş örneğe bölünebilir. Her örneğin kendi HBM3e belleği, önbelleği ve hesaplama çekirdeği bulunur. Takım içi paylaşım güvenli ve performanssız.
Mimari Süreklilik — Data Center'a Sorunsuz Göç
Super AI Station'da geliştirilen uygulamalar değişiklik yapılmadan GB300 NVL72 tabanlı veri merkezi veya AI Factory sistemlerine aktarılabilir. Geliştirme ile üretim ortamı arasında sıfır yeniden yazım.

Teknik
Özellikler

ARS-511GD-NB-LCC modeli için tam teknik özellikler. Belirtimler değişebilir.

Platform & Form Faktör
İşlemci & GPU
Bellek
Depolama
Ağ Bağlantısı
Güç & Soğutma
İşletim Sistemi
Opsiyonel GPU
Platform & Form Faktör
Model No. ARS-511GD-NB-LCC
Form Faktör 5U Tower (Masa üstü) Paylaşımlı çalışma alanı dostu, kompakt tower tasarım
Platform Sınıfı Masaüstü AI Süperbilgisayarı Tüketici iş istasyonu ile veri merkezi AI sunucusu arası segment
İşlemci & GPU
Superchip NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip Veri merkezlerindeki GB300 ile aynı mimari
GPU 1× NVIDIA Blackwell Ultra (B300) 252 GB HBM3e · 7.1 TB/s bellek bant genişliği · 20 PFLOPS NVFP4
CPU 1× NVIDIA Grace™ — 72-core ARM Neoverse V2 Entegre GPU ile NVLink-C2C aracılığıyla 900 GB/s bant genişliğiyle bağlı
CPU-GPU Bağlantısı NVIDIA NVLink-C2C (Chip-to-Chip) 900 GB/s çift yönlü — PCIe Gen6'nın 7 katı bant genişliği
AI Performans 20 PFLOPS (NVFP4)
Parametre Kapasitesi 1 Trilyon Parametreye Kadar Çıkarım Gpt-oss-120b, Gemma 3, Qwen3, DeepSeek V3.2, Nemotron ve daha fazlası
MIG Desteği Evet — Maks. 7 İzole Örnek Her örnek: bağımsız HBM3e, önbellek ve hesaplama çekirdeği
Bellek
Toplam Birleşik Bellek 748 GB (Coherent Memory Architecture)
Sistem (CPU) Belleği 496 GB LPDDR5X 396 GB/s bellek bant genişliği
GPU Belleği 252 GB HBM3e 7.1 TB/s bellek bant genişliği
Bellek Mimarisi Paylaşımlı Birleşik Havuz CPU ve GPU tek adres uzayında; veri kopyalama ek yükü yok
Depolama
Dahili Depolama 4× M.2 PCIe 5.0 NVMe Yüksek hızlı model depolama ve veri seti okuma için optimize
Ağ Bağlantısı
AI İş Yükü Ağı Çift port 400 GbE QSFP112 — NVIDIA ConnectX-8 SuperNIC™ Yüksek bant genişliği, düşük gecikme · RDMA desteği
Genel Ağ 10GbE LAN
Yönetim Ağı 1GbE BMC LAN Bant dışı sistem yönetimi
Güç & Soğutma
Güç Kaynağı 1600W Titanium Seviyesi (%94 verim) NEMA 5-20 standart ofis prizi (Kuzey Amerika) · Kararlı ve güvenilir güç
Soğutma Kapalı Devre Sıvı Soğutma (Closed-Loop Liquid Cooling) Sessiz operasyon · Paylaşımlı ofis ortamı dostu · Ekstra altyapı gerektirmez
İşletim Sistemi & Yazılım
İşletim Sistemi Ubuntu 24.04 LTS NVIDIA AI Developer Tools ile birlikte önceden yüklenmiş
AI Yazılım Paketi NVIDIA AI Enterprise (NVAIE) — Önceden Yüklü CUDA, cuDNN, TensorRT, NIM mikro servisleri, NeMo, RAPIDS dahil
Ajan Geliştirme NVIDIA NemoClaw & NVIDIA OpenShell Tek komutla her zaman açık otonom ajan çalıştırma · NVIDIA Agent Toolkit
Opsiyonel Grafik GPU
Desteklenen Grafik GPU'lar NVIDIA RTX PRO 4000 Blackwell veya NVIDIA RTX PRO 2000 Blackwell — grafik render, görselleştirme
Kullanım Amacı Fiziksel AI geliştirme, görsel hesaplama, 3D simülasyon ve ray-traced görselleştirme AI hesaplama ile grafik render'ı aynı sistemde birleştiren yapılandırma

Kim İçin
Tasarlandı?

Super AI Station, AI araştırmacıları, uygulama geliştiriciler, derin teknoloji startupları ve kurumsal takımlar için özel olarak tasarlanmıştır. Veri gizliliği kritik olan ya da bulut bağımlılığını azaltmak isteyen her ortam için ideal platform.

LLM Fine-Tuning &
Model Değerlendirme

Kuruma özel veri setleriyle büyük dil modellerini yerel olarak ince ayarlamak, yinelemek ve değerlendirmek isteyen AI araştırmacıları.

Domain-specific model fine-tuning ve RLHF ile parametre verimli özelleştirme
748 GB birleşik bellek ile büyük veri setleri üzerinde iteratif eğitim
1 trilyon parametreye kadar model çıkarımı ve karşılaştırmalı değerlendirme
NVIDIA NeMo Framework ile entegre geliştirme ortamı

Otonom AI Ajan
Geliştirme

7/24 kesintisiz çalışan, kod yazan, araçları çağıran ve görevleri özerk şekilde tamamlayan yapay zeka ajanları geliştiren ekipler.

NVIDIA NemoClaw ile her zaman açık otonom ajan çalıştırma — tek komutla kurulum
NVIDIA OpenShell ile güvenli sandboxed agent execution environment
Frontier sınıfı, trilyon parametreli modeller üzerinde ajan geliştirme
Kalıcı hesaplama ve kalıcı bellek — bulutun sunamadığı mimari avantaj

Takım Paylaşımlı
AI İstasyonu

Birden fazla araştırmacı veya geliştiricinin aynı anda bağımsız AI projelerinde çalışması gereken araştırma laboratuvarları ve deep-tech startupları.

MIG ile GPU en fazla 7 tamamen izole örneğe bölünür — her kullanıcıya bağımsız hafıza
Yerel ağ üzerinden takım üyeleri ayrı projelerini paralel olarak yürütür
Paylaşımlı compute node olarak kullanım — on-demand model fine-tuning ve inference
Sessiz kapalı devre sıvı soğutma ile ortak çalışma alanlarında rahat kullanım

Güvenli & Regüle
AI Uygulamaları

Sağlık, finans, savunma ve hukuk gibi veri gizliliği ve uyumluluk kurallarının AI sistemlerinde kritik olduğu sektörler.

Veri ve fikri mülkiyet kurum dışına hiçbir zaman çıkmaz — sıfır bulut egress
Air-gapped (fiziksel ağ izolasyonu) konfigürasyon desteği
KVKK, HIPAA, GDPR uyumlu on-premises AI platform
NVIDIA OpenShell ile güvenlik guardrail'leri ve politika zorunluluğu

Fiziksel AI &
Simülasyon

Robotik, özerk araç ve endüstriyel otomasyon gibi gerçek dünya ortamlarının simüle edilmesini gerektiren fiziksel AI uygulamaları.

Opsiyonel RTX PRO GPU ile AI hesaplama + ray-traced görselleştirme aynı sistemde
NVIDIA Omniverse ile dijital ikiz ve fiziksel simülasyon geliştirme
Robotik AI eğitimi, test ve doğrulama döngüsü yerel ortamda kapatılır
Data center'a geçişte sıfır kod değişikliği — mimari süreklilik garantisi

Bulut Bağımlılığını
Azaltma

Yüksek bulut GPU maliyetlerini optimize etmek isteyen, AI iş yüklerini kısmen veya tamamen on-premises'e taşımayı planlayan kurumsal takımlar.

Bulut GPU kiralama maliyetleriyle karşılaştırıldığında uzun vadede anlamlı TCO avantajı
Gelişme ortamı için Super AI Station + üretim için AI Factory — sorunsuz hibrit model
Ağ gecikmesi ve veri transfer ücretleri ortadan kalkar
Standart ofis prizi ile çalışır; özel altyapı yatırımı gerekmez
Yazılım Ekosistemi

Kutusundan Çıktıktan
Sonra Hazır

NVIDIA AI Enterprise (NVAIE) önceden yüklü gelir. CUDA ekosisteminin tüm kütüphaneleri, çerçeveleri ve araçları kullanıma hazır — kurulum veya yapılandırma karmaşıklığı olmadan.

NVIDIA AI Enterprise
Üretim AI uygulaması geliştirme için tam yazılım paketi. Önceden yüklü ve yapılandırılmış gelir.
Önceden Yüklü
NVIDIA NIM Mikro Servisler
Container tabanlı optimize AI model çıkarımı. Tüm büyük açık kaynak modelleri desteklenir.
AI Çıkarım
NVIDIA NeMo Framework
LLM eğitimi, fine-tuning ve RLHF için uçtan uca framework. Parametre verimli özelleştirme.
Model Geliştirme
NVIDIA NemoClaw
Tek komutla her zaman açık otonom ajan çalıştırma. OpenClaw'ı güvenli ve özel ortamda çalıştırır.
Otonom Ajan
NVIDIA OpenShell
Otonom ajanlar için güvenli sandbox ortamı. Güvenlik guardrail'leri ve politika zorunluluğu.
Güvenlik
NVIDIA RAPIDS
GPU hızlandırmalı veri bilimi kütüphaneleri. Veri ön işleme ve analiz pipeline'ları için.
Veri Bilimi
TensorRT & cuDNN
NVIDIA donanımı için optimize edilmiş derin öğrenme kütüphaneleri. Çıkarım hızı maksimize.
Optimizasyon
Desteklenen Modeller
gpt-oss-120b, Gemma 3, Qwen3, Mistral Large 3, DeepSeek V3.2, Nemotron ve daha fazlası.
Model Agnostik

Super AI Station
vs Alternatifler

Özellik Supermicro
Super AI Station
Tüketici Sınıfı
GPU İş İstasyonu
Bulut GPU
(Saatlik Kiralama)
Kurumsal AI
Rack Sunucu
GPU Mimarisi NVIDIA Blackwell Ultra (B300) — Veri Merkezi Sınıfı RTX 4090 / PCIe GPU — Tüketici Sınıfı Değişken, H100/A100 HGX B300/B200 — Rack Sınıfı
Toplam Bellek 748 GB Birleşik 24-96 GB (ayrı CPU+GPU) Sanal limit, paylaşımlı Binlerce GB (rack)
Veri Gizliliği
Tam yerel, sıfır egress
Yerel
Bulut egress riski
Yerel (veri merkezi)
Otonom Ajan (7/24)
NemoClaw destekli
Kısıtlı (bellek yetersiz) Maliyetli (saatlik)
Evet
Form Faktör Masaüstü Tower (Ofis) Tower/Workstation (Ofis) Rack (Veri Merkezi)
Sessiz Çalışma
Kapalı devre sıvı soğutma
Orta (fan gürültüsü)
Gürültülü (DC ortamı)
Özel Altyapı Standart ofis prizi yeterli Standart yeterli PDU, soğutma altyapısı
Data Center'a Göç
Sıfır kod değişikliği
Yeniden yazım gerekebilir Kısmi uyumluluk
AI Enterprise Pre-installed
Kısmi
Neden GTM Teknoloji

Türkiye'nin
Supermicro Uzmanı

2009'dan bu yana Türkiye'nin katma değerli resmi Supermicro distribütörü olarak Super AI Station dahil tüm Supermicro ürünlerinde yerel stok, Türkçe teknik destek ve özel fiyatlandırma sunuyoruz.

Türkiye Stoku — Hızlı Teslimat Genelllikle uzun ithalat süreleri yok. Stok bulunan modeller için kısa sürede teslimat imkânı.
Yerinde Kurulum & Devreye Alma Supermicro sertifikalı teknisyenler sistemin kurulumunu, yapılandırmasını ve devreye almasını yerinde gerçekleştirebilir.
Türkçe AI Teknik Danışmanlık İş yükü analizi, model seçimi, fine-tuning stratejisi ve yazılım ekosistemi konularında Türkçe uzman desteği.
TL Fiyatlandırma & Finansman Kurumsal finansman seçenekleri için görüşün.
15+
Yıllık Deneyim
2009'dan bu yana Türkiye'de en yetkili ve katma değerli resmi Supermicro distribütörü
TR
Yerel Stok
Türkiye'de fiziksel stok ve Türkçe teknik destek
360°
Uçtan Uca
Danışmanlıktan kuruluma, bakımdan desteğe
4h
Yanıt Seçeneği
Kritik sistemler için 4 saatlik yerinde müdahale

Super AI Station'ı
Bugün Sipariş Edin

GTM Teknoloji uzman ekibi ihtiyaç analizinizi yapar, en uygun konfigürasyonu belirler ve hızlı teslimat için stoğu ayartar.

Türkiye stoku — hızlı teslimat imkânı
Yerinde kurulum ve NVIDIA AI Enterprise yapılandırması
Türkçe teknik danışmanlık ve model geliştirme desteği
TL fiyatlandırma ve çok yıllı garanti seçenekleri

Super AI Station Teklif Formu

Kullanım senaryonuzu ve ihtiyaçlarınızı paylaşın — GTM Teknoloji ekibi en kısa sürede size özel fiyat teklifi hazırlasın. Yanıt süresi: iş günü içinde.

Türkiye Stoku — Yerinde Destek
2009'dan Beri Resmi Supermicro Distribütörü
SKU: ARS-511GD-NB-LCC
Teklif İsteyin