NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Supermicro JumpStart レビュー: NVIDIA HGX B200との1週間
SupermicroのJumpStartプログラムは、ハードウェア評価に対して非常に異なるアプローチを取ります。共有ラボ環境での短いスクリプト化されたデモではなく、JumpStartは認定されたお客様に、実際のプロダクションサーバーのカタログへの無料の、時間制限付きの、ベアメタルアクセスを提供します。
Intel® TDX、NVIDIA Confidential Computing、およびNVIDIA HGX™ B200 GPUを搭載したSupermicro ServersによるAIワークロードの保護:大規模な機密AIの基盤
このホワイトペーパーでは、IntelのTrust Domain Extensions (TDX) とNVIDIA Confidential Computingが、SupermicroのHGX B200ベースのシステムと連携して、次世代AIインフラストラクチャ向けの強力でセキュアかつスケーラブルなプラットフォームをどのように提供するかを探ります。
さくらインターネット、AIサービスを加速するクラウドサービス「Koukaryoku
さくらインターネット高火力は、NVIDIA HGX™ 8-GPU AIスーパーコンピューティングプラットフォームを搭載したSupermicroの8U SYS-821GE-TNRシステムにより、生成AIアプリケーションを加速する新しいサービスを創出します。
Supermicro SYS-821GE-TNHR 8基のNVIDIA H200 GPU 空冷AIサーバー
本日は、大規模AIサーバーの調査を続け、Supermicro SYS-821GE-TNHRを見ていきます。SupermicroのAIサーバーの卓越性が議論される際、これは空冷NVIDIAサーバーとして市場で異彩を放つシステムの1つです。
GAUDI 3 AIを搭載したSupermicroがAI要件向けにスケーラブルなパフォーマンスを提供
あらゆる規模とワークロードのデータセンターに最適化された幅広いソリューション 新サービスと顧客満足度の向上を実現
Supermicro と Intel GAUDI 3 システムがエンタープライズAIインフラストラクチャを進化させる
IntelXeon 6プロセッサーを使用した高帯域幅AIシステムにより、エンタープライズ規模での効率的なLLMとGenAIのトレーニングと推論を実現
Lamini は LLM チューニングサービスのため Supermicro GPU サーバーを選択
AMD Instinct™ MI300Xアクセラレーターを搭載したSupermicro GPUサーバーを使用することで、Laminiは高速でLLMチューニングを提供できます
Supermicro GraceシステムはANSYS® LS-DYNA®向けに4倍の性能を提供
Supermicro Grace CPU Superchipシステムは、同じ消費電力で4倍の性能を提供
Applied DigitalがSupermicro GPUサーバーで大規模AIクラウドを構築
Applied Digitalは、Supermicro高性能サーバーにより、AIトレーニングおよびHPCシミュレーション向けの最新のスケーラブルなAIおよびHPCインフラストラクチャをユーザーに提供します。
Supermicro 4U AMD EPYC GPUサーバーがAIの柔軟性を提供 (AS-4125GS-TNRT)
Supermicroは、本レビューで議論する時間がないほど、多様な形状とサイズのGPUサーバーを長年にわたり提供してきました。本日は、比較的新しい4U空冷GPUサーバーをご紹介します。このサーバーは、2基のAMD EPYC 9004シリーズCPU、PCIe Gen5、そして8枚のダブル幅または12枚のシングル幅アドインGPUカードの選択肢をサポートしています。
SupermicroとNVIDIAは、自動車および航空宇宙産業向けのCFDシミュレーションを加速するソリューションを開発しています。
SupermicroサーバーはNVIDIAデータセンターGPUを搭載し、CFDシミュレーションにおいて大幅な高速化を実現し、製造業企業の市場投入までの時間を短縮します
液冷Supermicro SYS-821GE-TNHR 8x NVIDIA H100 AIサーバーの紹介
本日は、液冷Supermicro SYS-821GE-TNHRサーバーをご紹介します。これはSupermicroの8x NVIDIA H100システムですが、冷却コストと消費電力を削減するために液冷が施されています。写真を入手しましたので、本稿でご紹介いたします。
高性能サーバー・アーキテクチャにおけるPCIe GPUへのアクセス・オプション
Supermicro GPUサーバーの構成オプションを理解することで、ワークロードに最大のパフォーマンスを提供
Petrobras がコスト削減と探査精度の向上のため Atos 統合 Supermicro サーバーを導入
Supermicro システムは、2022年11月のTop500ランキングでPetrobrasを33位に押し上げました。
SupermicroとProphetStorは、マルチテナントLLMトレーニングにおけるGPU効率を最大化します。
AIと機械学習のダイナミックな世界では、マルチテナント環境におけるGPUリソースの効率的な管理が、特に大規模言語モデル(LLM)のトレーニングにおいて最も重要です。
SupermicroサーバーはSEEWEB向けGPU製品を拡充し、要求の厳しい顧客にAIおよびHPCワークロードでより迅速な結果を提供します
Seewebは、HPCおよびAIワークロードの顧客要求を満たすためにSupermicro GPUサーバーを選択しました。
3000W AMD EPYCサーバー分解、Level1Techsのウェンデル氏による
AIおよび機械学習向けに最適化されたサーバーを見ています。Supermicroは、密度最適化サーバーである2114GT-DNR (2U2N) に可能な限り多くの機能を詰め込むために多大な努力を払いました。これは非常に優れた構造で、この2Uシャーシには2つのシステムが搭載されています。2基の冗長電源はそれぞれ2,600Wであり、なぜこれほど多くの電力が必要なのかがわかります。このサーバーは、6基のAMD MI210 Instinct GPUとデュアル EPYCプロセッサーを搭載しています。Supermicroがこのサーバーの設計に注ぎ込んだエンジニアリングのレベルをご覧ください。
NECはSupermicroの高度なGPUシステムでAI研究を推進
NECはNVIDIA® A100を搭載したSupermicro GPUサーバーをAI研究用スーパーコンピューター構築のために使用 (日本語)
Supermicro TECHTalk: 高密度AIトレーニング/ディープラーニング・サーバー
当社の最新のデータセンター・システムは、高速GPU-GPUインターコネクトと第3世代インテル® Xeon® Scalableプロセッサーを備えた先進的なNVIDIA Ampere GPUを最高密度で搭載しています。このTECHTalkでは、4Uラックハイトパッケージで比類のないAIパフォーマンスを実現する方法を紹介します。
ハイブリッド2U2N GPUワークステーション・サーバープラットフォーム Supermicro SYS-210GP-DNR ハンズオン
本日は、最新シリーズの締めくくりとして、Patrickが最近Supermicro本社で実機に触れた2U、2ノード、6GPUシステムであるSupermicro SYS-210GP-DNRを見ていきます。
Supermicro SYS-220GQ-TNAR+ NVIDIA Redstone 2U サーバー
本日は、Patrickが最近Supermicro本社で実機に触れたSupermicro SYS-220GQ-TNAR+を見ていきます。
GPUシステム設計の飛躍を公開 - IDCとのSupermicro SC21 TECHTalk
登壇者:Josh Grossman (Supermicro、プリンシパルプロダクトマネージャー)、Peter Rutten (IDC、インフラストラクチャーシステム担当リサーチディレクター)
ミッションクリティカルなサーバーソリューション
仮想化されたNVIDIA A100 GPUによるAI開発と提供の最大化
NVIDIA HGX A100を搭載したSupermicro システムは、NVIDIA Virtual Compute Server (vCS) およびNVIDIA A100 GPUをサポートする柔軟なソリューションセットを提供し、AI開発と展開において小規模から大規模なAIモデルの実行を可能にします。
Supermicro SuperMinute: 2U 2ノード・サーバー
Supermicroの画期的なマルチノードGPU/CPUプラットフォームは、市場の既存製品とは一線を画します。当社の先進的なBuilding Block Solutions®設計と省リソースアーキテクチャにより、このシステムは最先端のCPUおよびGPUエンジンと高度な高密度ストレージを省スペースなフォームファクターに統合し、比類のないエネルギー効率と柔軟性を提供します。
SuperMinute: HGX A100 8GPU搭載4Uシステム
最も要求の厳しいAIワークロード向けに、SupermicroはNVIDIA A100™ Tensor Core GPUをベースとした最高性能かつ最速で市場投入されるサーバーを構築しています。最新バージョンのNVIDIA® NVLink™およびNVIDIA NVSwitch™テクノロジーにより、これらのサーバーは単一の4Uシステムで最大5 PetaFLOPSのAI性能を提供できます。
SuperMinute: HGX A100 4GPU搭載2Uシステム
新しいAS -2124GQ-NARTサーバは、NVIDIA A100 Tensor Core GPUとHGX A100 4-GPUベースボードのパワーを特徴としています。システムは、高速CPU-GPU接続および高速ネットワーク拡張カード用のPCI-E Gen 4をサポートしています。