Beschleunigte Building Blocks mit Intel-GPUs

Für KI und -Inferenz im Cloud-Maßstab
Die Nachfrage nach hochleistungsfähigen KI Learning (DL)-Trainingscomputern hat sich laut OpenAI seit 2013 alle 3,5 Monate verdoppelt und steigt mit der wachsenden Größe der Datensätze und der Anzahl der Anwendungen und Dienste, die auf großen Sprachmodellen (LLMs), Computer Vision, Empfehlungssystemen und mehr basieren.
Angesichts der steigenden Nachfrage nach höherer Trainings- und Inferenzleistung, höherem Durchsatz und höherer Kapazität benötigt die Industrie zweckmäßige Systeme, die eine höhere Effizienz, niedrigere Kosten, eine einfache Implementierung, Flexibilität für die Anpassung und Skalierung von KI bieten. KI ist zu einer unverzichtbaren Technologie für verschiedene Bereiche wie Copiloten, virtuelle Assistenten, Fertigungsautomatisierung, autonome Fahrzeugoperationen und medizinische Bildgebung geworden, um nur einige zu nennen. Supermicro hat sich mit Intel zusammengetan, um mit den Intel Gaudi KI System- und Rack-Designs im Cloud-Format anzubieten.

Neue Supermicro X14 Gaudi® 3 KI Schulungs- und Inferenzplattform
Die neue Supermicro X14 KI basiert auf der dritten Generation von Intel® Gaudi 3 Beschleunigern, die entwickelt wurden, um die Effizienz von groß angelegtem KI und KI weiter zu steigern. Die X14 Gaudi 3 Lösung von Supermicro ist sowohl in luft- als auch in flüssigkeitsgekühlten Konfigurationen erhältlich und lässt sich leicht skalieren, um eine breite Palette von KI zu erfüllen.
- GPU: 8 Gaudi 3 HL-325L (luftgekühlt) oder HL-335 (flüssigkeitsgekühlt) Beschleuniger auf OAM 2.0 Baseboard
- CPU: Zwei Intel® Xeon® 6 Prozessoren
- Speicher: 24 DIMMs - bis zu 6 TB Speicher in 1DPC
- Laufwerke: Bis zu 8 hot-swap PCIe 5.0 NVMe
- Stromversorgungen: 8 3000W hocheffiziente, voll redundante (4+4) Titanium Level
- Netzwerk: 6 integrierte OSFP 800GbE-Ports für Scale-out
- Erweiterungssteckplätze: 2 PCIe 5.0 x16 (FHHL) + 2 PCIe 5.0 x8 (FHHL)
- Arbeitsbelastungen: KI und Inferenz
Supermicro Gaudi®2 KI Schulungsserver
Aufbauend auf dem Erfolg des ursprünglichen Supermicro Gaudi KI legt der Gaudi 2 KI den Schwerpunkt auf zwei wichtige Aspekte: die Integration von KI mit eingebauten Hochgeschwindigkeits-Netzwerkmodulen, um die Betriebseffizienz für das Training modernster KI zu steigern und der KI die nötige Auswahl zu bieten.
- GPU: 8 Gaudi2 HL-225H Mezzanine-Karten
- CPU: Zwei Intel® Xeon® Prozessoren der 3. Generation, skalierbar
- Speicher: 32 DIMMs - bis zu 8TB registrierter ECC DDR4-3200MHz SDRAM
- Laufwerke: bis zu 24 Hot-Swap-Laufwerke (SATA/NVMe/SAS)
- Leistung: 6x 3000W Hocheffiziente (54V+12V) voll-redundante Netzteile
- Vernetzung: 24x 100GbE (48 x 56Gb) PAM4 SerDes Links durch 6 QSFP-DDs
- Erweiterungssteckplätze: 2x PCIe 4.0-Switches
- Arbeitsbelastungen: KI und Inferenz
Supermicro Server mit Intel® Gaudi® 3 ist für KI in der realen Welt optimiert
Neue Supermicro mit Intel® Xeon® Prozessoren der Serie 6 mit P-Cores und Intel Gaudi 3-Beschleunigern zeigen Leistungssteigerungen gegenüber den Vorgängergenerationen
Supermicro X14 Intel® Gaudi® KI Accelerator Cluster Referenzdesign
Beschleunigung und Kostensenkung von KI mit dem X14 Intel® Gaudi® 3 Accelerator-basierten System von Supermicro, das auf Open-Source-Software und Industriestandard-Ethernet aufbaut
Supermicro mit GAUDI 3 KI liefert skalierbare Leistung für KI
Optimierte Lösungen für Rechenzentren jeder Größe und Arbeitslast für neue Services und höhere Kundenzufriedenheit
Supermicro und Intel GAUDI 3 Systeme verbessern die KI für Unternehmen
KI mit hoher Bandbreite unter Verwendung von Intel Xeon 6 Prozessoren für effizientes LLM- und GenAI-Training und Inferenz über Unternehmensskalen hinweg
Supermicro X13 Hyper ermöglicht KI für Unternehmen auf der VMWARE-Plattform
Rechnerische KI Anwendungsfälle: Large Language Model (LLM) und KI - ResNet50 auf Intel® Data Center Flex 170 GPU
KI mit Supermicro in der INTEL® Developer Cloud beschleunigen
Supermicro Advanced KI Server mit Intel® Xeon® Prozessoren und Intel® Gaudi® 2 KI bieten Entwicklern und Unternehmen leistungsstarke und hocheffiziente KI , Schulungs- und Inferencing-Lösungen
Überlegene Lösung für Medienverarbeitung und -bereitstellung auf Basis von Supermicro mit Intel® Data Center GPU Flex Series
Supermicro Systeme mit Intel® Data Center GPU Flex Serie

Supermicro TECHTalk: Neue Medienverarbeitungslösungen auf Basis der Intel Data Center GPU Flex Serie
Sehen Sie sich an, wie unsere Produktexperten die neuen Supermicro Lösungen auf Basis der gerade angekündigten Intel Data Center GPU Flex Series diskutieren. Erfahren Sie, wie Sie und Ihr Unternehmen von diesen Lösungen profitieren können.
Bereitstellung von skalierbarem Cloud-Gaming
Supermicro Systeme mit Intel® Data Center GPU Flex Serie
Supermicro bietet alle Systemkomponenten für Cloud Service Provider, um eine umweltfreundliche, kosteneffiziente und profitable Cloud Gaming Infrastruktur aufzubauen.
Innovative Lösungen für Cloud Gaming, Medien, Transcoding und KI
Sep 08 2022, 10:00 Uhr PDT
Produkt- und Lösungsexperten Supermicro und Intel werden in einer informellen Sitzung die Vorteile der Lösungen in den Bereichen Cloud Gaming, Media Delivery, Transcoding und KI Inferencing unter Verwendung der kürzlich angekündigten Intel Flex Series GPUs diskutieren. Das Webinar wird die Vorteile der Supermicro , die idealen Server und die Vorteile der Verwendung der Intel Flex Series GPUs erklären.
Supermicro und Habana® Hochleistungsfähiges, hocheffizientes KI
Ermöglicht ein bis zu 40 % besseres Preis-Leistungs-Verhältnis für Deep Learning-Training als herkömmliche KI