サーバー設計により、オープンで高密度なコンピューティングをエッジへ
Supermicro、Red Hat、Senao、Lanner、Intelは協力して、AI対応でワークロード統合のためにスケーラブルなエッジコンピューティングソリューションファミリーを創出します。

Supermicro、Red Hat、Senao、Lanner、Intelは協力して、AI対応でワークロード統合のためにスケーラブルなエッジコンピューティングソリューションファミリーを創出します。

Supermicro、Red Hat、Senao、Lanner、Intelは協力して、AI対応でワークロード統合のためにスケーラブルなエッジコンピューティングソリューションファミリーを創出します。
SupermicroとNVIDIAが提供するAIファクトリーは、大規模なエンタープライズAI展開を簡素化し、オンライン化までの時間と収益化までの時間を短縮するために設計された、完全なターンキーソリューションです。これらのエンドツーエンドAIインフラストラクチャソリューションは、高性能GPUコンピューティング、AIソフトウェア、高速ネットワーキング、スケーラブルストレージを組み合わせることで、データセンター対応のAIワークロードを加速させます。

AI推論、モデルトレーニング、およびファインチューニング向けの新Supermicro Super AI Station – NVIDIA BG300 Grace™ Blackwell Ultra Desktop Superchipを搭載

AIファクトリーからデータセンター、エッジに至るまで、強力かつ柔軟なマルチワークロードの高速化

SupermicroとNVIDIAが提供するAIファクトリーは、あらゆる規模でのAI展開を簡素化し、市場投入を加速させ、ラックレベルの統合によって完全なAIの信頼性を提供する、完全なターンキーソリューションです。
SupermicroのテクノロジーイネーブルメントチームのKitanaとRudyが、AI開発に最適なソリューションであるSuper AI Stationをご紹介します。NVIDIA GB300 Grace Blackwell Ultra Desktop Superchipを搭載したSupermicroのARS-511GD-NB-LCCは、デスクサイドに設置可能な液冷システムであり、大規模モデルのトレーニング、ファインチューニング、および高スループット推論のために、データセンタークラスのAIパフォーマンスをデスク下で提供します。
Supermicro BigTwin® は、最高のコンピューティングおよびストレージ密度と電力効率を提供し、電力制約のあるあらゆる環境でスケーラビリティ、柔軟性、性能を求める現代のワークロードにとって、魅力的な選択肢となります。
Supermicro SuperBlade®は、コンパクトなフォームファクターで比類のないコンピューティング密度と卓越した性能を提供し、データセンターがより少ないリソースでより多くのことを達成できるようにします。

Supermicroのリアドア熱交換器 (RDHx) は、データセンター向けのプラグアンドクールな空冷・液冷ソリューションであり、ユニバーサルラック互換性、冗長ファン (4~5基)、スマート結露防止機能、およびRedfish、SNMP、Web UIなどのプロトコルを備え、最大80kWの冷却能力を提供することで、高密度AIおよびHPC環境での効率的な排熱を実現します。

Supermicroのリアドア熱交換器 (RDHx) は、データセンター向けのプラグアンドクールな空冷・液冷ソリューションであり、ユニバーサルラック互換性、冗長ファン (6~10基)、スマート結露防止機能、およびRedfish、SNMP、Web UIなどのプロトコルを備え、最大50kWの冷却能力を提供することで、高密度AIおよびHPC環境での効率的な排熱を実現します。

Supermicro BigTwin®上のSteelDomeは、ストレージ、仮想化、オーケストレーションを単一プラットフォームに統合し、最新のインフラストラクチャへの検証済みの高密度なパスを提供します。破壊的な移行なしにスケールできるように設計され、高い回復力でパフォーマンス重視のワークロードをサポートするように構築された、クラスターファーストのソフトウェアとクラスターフレンドリーなBigTwinハードウェアの組み合わせにより、お客様は迅速に展開し、運用し、自信を持ってスケールすることができます。

SupermicroシステムとNVIDIAアクセラレーテッドコンピューティングを搭載した専用のAIファクトリーは、オペレーターがGenAI、RAG、LLMトレーニング、リアルタイム推論をサポートする安全でスケーラブルなGPU高密度AI環境を展開することを可能にし、Sovereign AI-as-a-Serviceのような新たな収益機会を創出します。

統合ソリューションにより、主権AIとハイブリッドGPUクラウドが恩恵を受けます

xiNASは、AI、HPC、その他スループットを重視する環境向けに設計されたXinnorの高性能NFSサーバーソリューションです。本ドキュメントでは、Supermicro NVMeサーバー上でのxiNASの検証結果を提示し、劣化状態や再構築状態を含むマルチクライアントおよびマルチサーバー環境における性能と回復力を実証します。