Beschleunigte Building Blocks mit Intel-GPUs

Für KI und -Inferenz im Cloud-Maßstab
Die Nachfrage nach hochleistungsfähigen KI Learning (DL)-Trainingscomputern hat sich laut OpenAI seit 2013 alle 3,5 Monate verdoppelt und steigt mit der wachsenden Größe der Datensätze und der Anzahl der Anwendungen und Dienste, die auf großen Sprachmodellen (LLMs), Computer Vision, Empfehlungssystemen und mehr basieren.
Angesichts der steigenden Nachfrage nach höherer Trainings- und Inferenzleistung, höherem Durchsatz und höherer Kapazität benötigt die Industrie zweckmäßige Systeme, die eine höhere Effizienz, niedrigere Kosten, eine einfache Implementierung, Flexibilität für die Anpassung und Skalierung von KI bieten. KI ist zu einer unverzichtbaren Technologie für verschiedene Bereiche wie Copiloten, virtuelle Assistenten, Fertigungsautomatisierung, autonome Fahrzeugoperationen und medizinische Bildgebung geworden, um nur einige zu nennen. Supermicro hat sich mit Intel zusammengetan, um mit den Intel Gaudi KI System- und Rack-Designs im Cloud-Format anzubieten.

Neue Supermicro X14 Gaudi® 3 KI Schulungs- und Inferenzplattform
Die neue Supermicro X14 KI basiert auf der dritten Generation von Intel® Gaudi 3 Beschleunigern, die entwickelt wurden, um die Effizienz von groß angelegtem KI und KI weiter zu steigern. Die X14 Gaudi 3 Lösung von Supermicro ist sowohl in luft- als auch in flüssigkeitsgekühlten Konfigurationen erhältlich und lässt sich leicht skalieren, um eine breite Palette von KI zu erfüllen.
- GPU: 8 Gaudi 3 HL-325L (luftgekühlt) oder HL-335 (flüssigkeitsgekühlt) Beschleuniger auf OAM 2.0 Baseboard
- CPU: Zwei Intel® Xeon® 6 Prozessoren
- Speicher: 24 DIMMs - bis zu 6 TB Speicher in 1DPC
- Laufwerke: Bis zu 8 hot-swap PCIe 5.0 NVMe
- Stromversorgungen: 8 3000W hocheffiziente, voll redundante (4+4) Titanium Level
- Netzwerk: 6 integrierte OSFP 800GbE-Ports für Scale-out
- Erweiterungssteckplätze: 2 PCIe 5.0 x16 (FHHL) + 2 PCIe 5.0 x8 (FHHL)
- Arbeitsbelastungen: KI und Inferenz
Supermicro Gaudi®2 KI Schulungsserver
Aufbauend auf dem Erfolg des ursprünglichen Supermicro Gaudi KI legt der Gaudi 2 KI den Schwerpunkt auf zwei wichtige Aspekte: die Integration von KI mit eingebauten Hochgeschwindigkeits-Netzwerkmodulen, um die Betriebseffizienz für das Training modernster KI zu steigern und der KI die nötige Auswahl zu bieten.
- GPU: 8 Gaudi2 HL-225H Mezzanine-Karten
- CPU: Zwei Intel® Xeon® Prozessoren der 3. Generation, skalierbar
- Speicher: 32 DIMMs - bis zu 8TB registrierter ECC DDR4-3200MHz SDRAM
- Laufwerke: bis zu 24 Hot-Swap-Laufwerke (SATA/NVMe/SAS)
- Leistung: 6x 3000W Hocheffiziente (54V+12V) voll-redundante Netzteile
- Vernetzung: 24x 100GbE (48 x 56Gb) PAM4 SerDes Links durch 6 QSFP-DDs
- Erweiterungssteckplätze: 2x PCIe 4.0-Switches
- Arbeitsbelastungen: KI und Inferenz

Für Medienverarbeitung und -übertragung, Transkodierung, Cloud-Gaming, KI Visual Inferencing
Da die Nachfrage nach Medien- und Spiele-Streaming und visuellem Inferencing weiterhin rapide ansteigt, benötigen Unternehmen effiziente, skalierbare Lösungen, die Dienste für Tausende bis Millionen von gleichzeitigen Nutzern bereitstellen können, ohne die Qualität oder Latenz zu beeinträchtigen. Supermicro Accelerated-Computing-Lösungen enthalten die neue Intel Data Center GPU, die für Medien- und Cloud-Workloads optimiert ist.
Intel GPUs unterstützen einen offenen, auf Standards basierenden Software-Stack, der für Dichte und Qualität optimiert ist und wichtige Serverfunktionen für hohe Zuverlässigkeit, Verfügbarkeit und Skalierbarkeit in den Bereichen Medienverarbeitung, Medienbereitstellung, visuelle KI , Cloud-Gaming und Virtualisierung bietet.

- Video Transcode: 30+ 1080p Streams
- Cloud Gaming: 40+ Spiele-Streams
- Virtuelle Desktop-Infrastruktur: 62 virtualisierte Funktionen
- Schlussfolgerung: 150 KI TOPS
- Bis zu 4 Xe Media Engines
- Bis zu 32 Xe-Kerne und Raytracing-Einheiten
- Branchenweit erste AV1-HW-Kodierung und -Dekodierung
- XMX KI eingebaut
TechTalk ansehen

Thomas Jorgensen, Senior Director, Technology Enablement bei Supermicro, spricht über die einzigartigen Vorteile von Supermicro Systemen auf Basis der Intel Data Center GPU Flex Series.
Lösung Kurzbeschreibung

Supermicro und Intel arbeiteten zusammen, um eine herausragende Leistung für eine groß angelegte Cloud-Gaming-Plattform zu liefern, die über 560 1080p @60Hz transkodierte Streams pro System erzeugt.
4K-Streaming-Demo

Dieses Video demonstriert Supermicro 4K-Echtzeit-Videostreaming-Lösung mit Intel Data Center GPU Flex Series, mit bis zu 8 gleichzeitigen Streams von einer einzigen GPU.
Optimierte Transkodierung
Hochleistungsdesign für maximale Medienverarbeitungsleistung, mit bis zu 10 GPUs in einem 4U-Gehäuse
- GPU: Bis zu 10 Intel® Data Center GPU Flex Series (in PCI-E 4.0 x16)
- CPU: Zwei Intel® Xeon® Prozessoren der 3. Generation, skalierbar
- Speicher: 32 DIMMs; bis zu 8TB oder 12TB mit Intel® Optane® Persistent Memory
- Laufwerke: 24x 2,5" Hot-Swap-Laufwerkseinschübe (8x NVMe/8x SATA/8x SATA/SAS)
Optimierte Medienbereitstellung
Multi-Node-System mit hoher Rechendichte, optimiert für Medien- und Spiele-Streaming am Cloud Edge
- GPU: Bis zu 2 Intel® Data Center GPU Flex Series pro Knoten (in PCI-E 4.0 x16)
- CPU: Zwei Intel® Xeon® Scalable Prozessoren der 3. Generation pro Knoten
- Speicher: 20 DIMMs; bis zu 4 TB bzw. 6 TB pro Knoten mit Intel® Optane® Persistent Memory
- Laufwerke: 6x 2,5"-Hot-Swap-NVMe/SATA-Laufwerksschächte pro Knoten
Optimiertes Cloud-Gaming
Multi-Node-System für hochdichte GPU-Konfigurationen in einem 2U-Formfaktor
- GPU: Bis zu 3 Intel® Data Center GPU Flex Series pro Knoten (in PCI-E 4.0 x16)
- CPU: Ein Intel® Xeon® Scalable-Prozessor der 3. Generation pro Knoten
- Speicher: 8 DIMMs; bis zu 2 TB pro Knoten
- Laufwerke: 2x 2,5" hot-swap U.2 NVMe-Laufwerksschächte pro Knoten
Visuelles Inferencing optimiert
Skalierbare Plattform mit bis zu 6 GPUs für die KI in der Cloud
- GPU: Bis zu 6 Intel® Data Center GPU Flex Series pro Knoten (in PCI-E 4.0 x16/x8)
- CPU: Zwei Intel® Xeon® Prozessoren der 3. Generation, skalierbar
- Speicher: 16 DIMMs; bis zu 4 TB, oder 6 TB mit Intel® Optane® Persistent Memory
- Laufwerke: 12x 2,5"/3,5"-Hot-Swap-NVMe/SAS/SATA-Hybrid-Laufwerksschächte
Visuelles Inferencing optimiert
Kompakte Edge-Plattform mit bis zu 2 GPUs
- GRAFIKPROZESSOR: Bis zu 2 Intel® Data Center GPUs der Flex-Serie
- CPU: Einzelner Intel® Xeon® Scalable-Prozessor der 3. Generation mit bis zu 32 Kernen
- Speicher: 8 DIMMs
- Laufwerke: 4x 2,5" interne SATA-Laufwerksschächte

Visuelles Inferencing optimiert für Edge
1U kompakte Edge-Plattform mit bis zu 2 GPUs
- GRAFIKPROZESSOR: Bis zu 2 Intel® Data Center GPUs der Flex-Serie
- CPU: Einzelner Intel® Xeon® Scalable-Prozessor der 3. Generation mit bis zu 32 Kernen
- Speicher: 8 DIMMs
- Laufwerke: 2x 2,5"-Laufwerksschächte & 1x M.2 NVMe oder 1x M.2 SATA3
Supermicro X14 Intel® Gaudi® KI Accelerator Cluster Referenzdesign
Beschleunigung und Kostensenkung von KI mit dem X14 Intel® Gaudi® 3 Accelerator-basierten System von Supermicro, das auf Open-Source-Software und Industriestandard-Ethernet aufbaut
Supermicro mit GAUDI 3 KI liefert skalierbare Leistung für KI
Optimierte Lösungen für Rechenzentren jeder Größe und Arbeitslast für neue Services und höhere Kundenzufriedenheit
Supermicro und Intel GAUDI 3 Systeme verbessern die KI für Unternehmen
KI mit hoher Bandbreite unter Verwendung von Intel Xeon 6 Prozessoren für effizientes LLM- und GenAI-Training und Inferenz über Unternehmensskalen hinweg
Supermicro X13 Hyper ermöglicht KI für Unternehmen auf der VMWARE-Plattform
Rechnerische KI Anwendungsfälle: Large Language Model (LLM) und KI - ResNet50 auf Intel® Data Center Flex 170 GPU
KI mit Supermicro in der INTEL® Developer Cloud beschleunigen
Supermicro Advanced KI Server mit Intel® Xeon® Prozessoren und Intel® Gaudi® 2 KI bieten Entwicklern und Unternehmen leistungsstarke und hocheffiziente KI , Schulungs- und Inferencing-Lösungen
Überlegene Lösung für Medienverarbeitung und -bereitstellung auf Basis von Supermicro mit Intel® Data Center GPU Flex Series
Supermicro Systeme mit Intel® Data Center GPU Flex Serie

Supermicro TECHTalk: Neue Medienverarbeitungslösungen auf Basis der Intel Data Center GPU Flex Serie
Sehen Sie sich an, wie unsere Produktexperten die neuen Supermicro Lösungen auf Basis der gerade angekündigten Intel Data Center GPU Flex Series diskutieren. Erfahren Sie, wie Sie und Ihr Unternehmen von diesen Lösungen profitieren können.
Bereitstellung von skalierbarem Cloud-Gaming
Supermicro Systeme mit Intel® Data Center GPU Flex Serie
Supermicro bietet alle Systemkomponenten für Cloud Service Provider, um eine umweltfreundliche, kosteneffiziente und profitable Cloud Gaming Infrastruktur aufzubauen.
Innovative Lösungen für Cloud Gaming, Medien, Transcoding und KI
Sep 08 2022, 10:00 Uhr PDT
Produkt- und Lösungsexperten Supermicro und Intel werden in einer informellen Sitzung die Vorteile der Lösungen in den Bereichen Cloud Gaming, Media Delivery, Transcoding und KI Inferencing unter Verwendung der kürzlich angekündigten Intel Flex Series GPUs diskutieren. Das Webinar wird die Vorteile der Supermicro , die idealen Server und die Vorteile der Verwendung der Intel Flex Series GPUs erklären.
Supermicro und Habana® Hochleistungsfähiges, hocheffizientes KI
Ermöglicht ein bis zu 40 % besseres Preis-Leistungs-Verhältnis für Deep Learning-Training als herkömmliche KI