Intelligente Läden mit Edge KI ermöglichen
Supermicro und NVIDIA transformieren den Einzelhandel durch die Bereitstellung von Edge-KI-Lösungen, die Intelligenz direkt in den Laden bringen.
Supermicro und NVIDIA transformieren den Einzelhandel durch die Bereitstellung von Edge-KI-Lösungen, die Intelligenz direkt in den Laden bringen.
STAC hat kürzlich ein STAC-ML™ Markets (Inference) Benchmark-Audit für einen Stack durchgeführt, der einen NVIDIA GH200 Grace Hopper Superchip in einem Supermicro ARS-111GL-NHR Server enthält. (ID: SMC250910)
Die neuesten Fortschritte in der KI bringen neue Herausforderungen an die Infrastruktur mit sich, wie erhöhte Leistungsanforderungen und Wärmemanagement. Supermicros Data Center Building Block Solutions (DCBBS) bietet alles Notwendige, um flüssigkeitsgekühlte KI-Rechenzentren schnell auszustatten.
Flüssigkeitsgekühlte GPU-Server senken den Stromverbrauch und steigern die Leistung
Da die Einführung von KI-Anwendungsfällen im Einzelhandel, in der Fertigung, in Smart Spaces und anderen Branchen weiter zunimmt, muss die Leistung der Unternehmensinfrastruktur am Edge mithalten. Die richtige Balance zwischen Leistung und TCO zu finden, ist entscheidend für einen erfolgreichen und nachhaltigen Business Case. Darüber hinaus setzen Unternehmen auf spezialisierte KI-Modelle für prädiktive, generative, physische und agentische KI, wodurch die Datenverarbeitung mit geringer Latenz für Echtzeit-Entscheidungen noch kritischer wird. Diskutieren Sie mit uns Edge-KI-Anwendungsfälle, um zu zeigen, wie Unternehmen Wachstum und operative Exzellenz fördern können und wie Supermicros Edge-Portfolio entwickelt wurde, um die erforderliche KI-Leistung am Edge zu liefern.
Näher an den Daten, der Intelligenz von morgen voraus
Der traditionelle Einzelhandel ist wettbewerbsintensiver denn je. Mit dem Fortschritt der KI haben Einzelhändler die Möglichkeit, neue Effizienzen und unglaubliche Einkaufserlebnisse zu erschließen. Doch der Erfolg ist nicht garantiert. Er erfordert Edge-Systeme der Enterprise-Klasse mit Rack-Einfachheit. Hier kommen Supermicro und AMD ins Spiel.
Dieses Whitepaper untersucht, wie Intels Trust Domain Extensions (TDX) und NVIDIA Confidential Computing zusammen mit Supermicros HGX B200-basierten Systemen gemeinsam eine leistungsstarke, sichere und skalierbare Plattform für die KI-Infrastruktur der nächsten Generation bieten.
Supermicro ARS-E103-JONX: Leistungsoptimiertes, lüfterloses System für KI am Edge
Energieeffiziente Leistung für das verteilte Netzwerk
Supermicro und Algo-Logic ermöglichen die Ausführung anspruchsvoller Handelsstrategien für Futures und Optionen mit extrem niedriger Latenz. Das System nutzt einen KI-Cluster, einen Analyseserver mit präziser Zeitstempelung und hardwarebeschleunigte Handelsausführung.
Da KI, Agentic KI und Retrieval-Augmented Generation (RAG) Workloads immer komplexer und anspruchsvoller werden, ist die Leistung der zugrunde liegenden Speichersysteme von entscheidender Bedeutung. Um die GPUs voll auszulasten, muss der Speicher sowohl bei sequentiellen als auch bei zufälligen Operationen eine außergewöhnliche Leistung bieten. Mit ihrer hervorragenden Leistung sind NVMe-PCIe-Laufwerke ideal für unternehmenskritische Anwendungen.
Supermicro und AMD bieten Lösungen zur Bewältigung der zahlreichen Herausforderungen beim erfolgreichen Übergang von generativen KI-Initiativen im Unternehmen vom Proof of Concept zur Produktion, indem sie hochleistungsfähige Server bereitstellen, die für KI-Training und -Inferenz optimiert sind.
Leistungsstarke KI und HPC-Workloads sorgen für wichtige Geschäftsimpulse
Ultra für KI mit 72 flüssigkeitsgekühlten NVIDIA B300 GPUs in einem Rack