Die Supermicro EBox wird von H14 CloudDC Servern angetrieben, einer speziell entwickelten All-Flash-Speicherplattform, die für die Disaggregated Shared-Everything (DASE)-Architektur von VAST Data optimiert ist. In Kombination mit VAST KI OS, das Datenspeicher, Datenbank und KI-Engine zu einer einzigen Plattform vereint, bildet die EBox ein Speicher-Backbone für datenintensive Workloads und Hyperscale-Multi-Tenant-Speicher.
Jede EBox sowohl CNode Rechen-) als auch DNode Speicher-)Container auf demselben Server EBox , wodurch separate Speichergehäuse überflüssig werden und gleichzeitig die Fähigkeit DASEerhalten bleibt, Rechenleistung und Kapazität unabhängig voneinander über die NVMe-Struktur zu skalieren. Diese Architektur ermöglicht eine lineare Skalierung von Terabyte bis Exabyte unter einem einzigen globalen Namespace, wobei Inline-Verschlüsselung, Deduplizierung und Löschcodierung nativ ohne externe Beschleuniger verarbeitet werden. Die Sicherheitsverwaltung folgt den Daten durchgängig: Zugriffskontrollen für Quelldateien werden automatisch über Einbettungen auf Inferenzausgaben übertragen. RDMA-Netzwerke mit hoher Bandbreite (200 GbE über NVIDIA® ConnectX®-7/8) ermöglichen eine Zero-Copy-Datenübertragung zwischen EBox und Clients. Für Unternehmen, KI im Unternehmen einsetzen, unterstützt dieselbe EBox die VAST für automatisierte RAG-Pipelines und die native Vektordatenbank für semantische Abfragen.
Die CNode-X KI-Datenplattform-Lösung mit Supermicro, NVIDIA und VAST Data bietet eine schlüsselfertige KI-Speicher- und Workflow-Lösung für den Einsatz von KI in Unternehmen. Diese Lösung integriert All-Flash-Speicher-Arrays, Hochleistungsserver, GPU-Beschleuniger mit dem KI-Betriebssystem von VAST, das universellen Speicher und eine integrierte Vektordatenbank, Event-Streaming-Dienste und einen Low-Code-Datenpipeline-Builder zur Orchestrierung von KI-Workloads bereitstellt.
Die CNode folgt der Referenzarchitektur KI von NVIDIA, die GPU-Beschleunigung in die Speicherplattform integriert, um die Datenvektorisierung, die Suche in Vektordatenbanken und Inferenz-Workloads zu beschleunigen. Zu den Vorteilen dieser Lösung gehören:
Gesamter KI -Stack
Nutzen Sie die integrierte Hardware von NVIDIA und VAST:
VAST Core
- Skalierbare, ereignisgesteuerte GPU-Berechnungen für KI
- Echtzeit-RAG und multimodale Arbeitsabläufe
- VAST Orchestration (RKE2) für NVIDIA NIM-Mikroservices
VAST
- Transaktions-, Analyse- und Vektordatenbankdienste
- VAST Broker für die Verteilung von Ereignis-Streaming
VAST
- Global verteilte Datenspeicher- und KV-Cache-Dienste
- Universeller Speicher (NFS, S3, SMB, NVMe über TCP)
CloudDC A+ Server
1U Single-Prozessor CloudDC DC-MHS, bis zu 12 Hot-Swap-fähigen 2,5-Zoll-Laufwerken und 3 PCIe 5.0-Steckplätzen
- Einzelner AMD EPYC™ 9005/9004 Serienprozessor
- 12 DIMMs (1 DPC); bis zu 3 TB ECC DDR5 RDIMM mit Prozessor EPYC -Serie
- Flexible Netzwerkoptionen mit 1 AIOM-Netzwerksteckplatz (OCP NIC 3.0 kompatibel)
- Erweiterungssteckplätze: 2 PCIe 5.0 x16 FHHL; 1 PCIe 5.0 AIOM-Netzwerksteckplatz
- 1000/2000 W redundante Netzteile auf Titan-Niveau (*Vollständige Redundanz basierend auf Konfiguration und Anwendungslast)

AS -1116CS-TN
GPU SuperServer
2U-Server mit einem Prozessor und bis zu 4 NVIDIA® RTX PRO™ 6000-GPUs
- Einzelner Intel® Xeon® Prozessor der Serien 6700/6500 mit P-Kernen
- Unterstützung für bis zu 4 PCIe-GPU-Beschleunigerkarten mit doppelter Breite
- Bis zu 16 DIMMs, die bis zu 1 TB DDR5-6400 in 1DPC oder 2 TB DDR5-5200 in 2DPC oder 512 GB DDR5-8000 in 1DPC unterstützen
- Bis zu 4 PCIe 5.0 x16 FHFL-Steckplätze mit doppelter Breite + 3 PCIe 5.0 x16 FHFL-Steckplätze
- Bis zu 4 hintere Hot-Swap-fähige E1.S NVMe-Laufwerksschächte
- 2700 W redundante Netzteile auf Titan-Niveau
