Supermicro最先端のAI対応インフラストラクチャソリューションで、AIの可能性を最大限に引き出しましょう。大規模なトレーニングからインテリジェントなエッジ推論まで、当社のターンキーリファレンスデザインはAIの導入を合理化し、加速します。コストを最適化し、環境への影響を最小限に抑えながら、最適なパフォーマンスと拡張性でワークロードを強化します。Supermicro多様なAIワークロード最適化ソリューションで可能性の世界を発見し、ビジネスのあらゆる側面を加速してください。
大規模AIトレーニングと推論
大規模言語モデル、AI生成学習、自律走行、ロボット工学
大規模なAIトレーニングには、GPUの並列コンピューティング能力を最大化し、膨大なデータセットでトレーニングされる数十億、数兆のAIモデルパラメータを処理するための最先端技術が必要です。NVIDIAのHGX™ B200およびGB200 NVL72と、最大1.8TB/秒の帯域幅を持つ最速のNVLink®およびNVSwitch® GPU-GPUインターコネクト、およびノードクラスタリングのための各GPUへの最速の1:1ネットワーキングを活用することで、これらのシステムは、大規模な言語モデルをゼロからトレーニングし、数百万人の同時ユーザーに提供するために最適化されています。高速AIデータ・パイプラインのためのオールフラッシュNVMeでスタックを完成させ、液体冷却オプションを備えた完全一体型ラックを提供することで、迅速な導入とスムーズなAIトレーニング体験を保証します。



ワークロードサイズ
- エクストララージ
- 大型
- ミディアム
- ストレージ
リソース

HPC/AI
工学シミュレーション、科学研究、ゲノム解読、創薬
科学者、研究者、エンジニアの発見までの時間を短縮し、より多くのHPCワークロードが機械学習アルゴリズムとGPU加速並列コンピューティングを増強して、より高速な結果を達成しています。世界最速のスーパーコンピューティング・クラスターの多くが、GPUとAIのパワーを活用しています。
HPCワークロードでは通常、膨大なデータセットと精度が要求されるデータ集約型のシミュレーションや分析が求められます。NVIDIAのH100/H200のようなGPUは、前例のない倍精度性能を提供し、GPUあたり60テラフロップスを実現します。Supermicro柔軟性の高いHPCプラットフォームは、ラックスケールの統合と液冷により、さまざまな高密度フォームファクタでGPU数とCPU数を増やすことができます。




ワークロードサイズ
- 大型
- ミディアム
リソース

エンタープライズAIの推論とトレーニング
AI生成推論、AI対応サービス/アプリケーション、チャットボット、レコメンダーシステム、業務自動化
ジェネレーティブAIの台頭は、ハイテクから銀行、メディアまで、さまざまな業界にとって次のフロンティアとして認識されています。イノベーションを生み出し、生産性を大幅に向上させ、業務を合理化し、データに基づいた意思決定を行い、顧客体験を向上させる源として、AIの導入競争が始まっています。
AIが支援するアプリケーションやビジネスモデル、カスタマーサービスのためのインテリジェントな人間のようなチャットボット、コード生成やコンテンツ作成を共同操縦するAIなど、企業はオープンなフレームワーク、ライブラリ、事前に訓練されたAIモデルを活用し、独自のデータセットを使用して独自のユースケース向けに微調整することができます。企業がAIインフラストラクチャを採用する中、SupermicroさまざまなGPU最適化システムは、オープンなモジュール式アーキテクチャ、ベンダーの柔軟性、急速に進化するテクノロジーへの容易な展開とアップグレードパスを提供します。



ワークロードサイズ
- エクストララージ
- 大型
- ミディアム
リソース

ビジュアライゼーション&デザイン
リアルタイムコラボレーション、3Dデザイン、ゲーム開発
最新のGPUによる3DグラフィックスとAI対応アプリケーションの忠実度の向上は、産業界のデジタル化を加速させ、製品開発・設計プロセス、製造、コンテンツ制作を、現実に忠実な3Dシミュレーションによって変革し、新たな品質の高さ、機会コストのない無限の反復、市場投入までの時間の短縮を実現します。
4U/5Uの8-10 GPUシステム、NVIDIAOVX™リファレンスアーキテクチャ、Universal Scene Description (USD)コネクタを備えたNVIDIA Omniverse Enterpriseに最適化されたNVIDIA認定ラックマウントサーバおよびマルチGPUワークステーションなどのSupermicro完全統合ソリューションを通じて、産業のデジタル化を加速する仮想生産インフラストラクチャを大規模に構築します。


ワークロードサイズ
- 大型
- ミディアム
リソース

コンテンツ配信と仮想化
コンテンツ・デリバリー・ネットワーク(CDN)、トランスコーディング、圧縮、クラウドゲーム/ストリーミング
動画配信ワークロードは、現在のインターネットトラフィックの大部分を占め続けています。ストリーミング・サービス・プロバイダーが4Kや8Kのコンテンツを提供したり、より高いリフレッシュ・レートでクラウド・ゲーミングを行うことが増えているため、メディア・エンジンによるGPUアクセラレーションは、AV1エンコーディングやデコーディングなどの最新技術により、必要なデータ量を削減しながら、ストリーミング・パイプラインのスループット性能を数倍に高めるために不可欠です。
2Uの4ノードBigTwin®システムなどのSupermicroマルチノードおよびマルチGPUシステムは、最新のビデオ配信の厳しい要件を満たしており、各ノードは、コンテンツ配信ネットワークの要求の厳しいデータパイプラインを駆動するために、多くのPCIe Gen5ストレージとネットワーク速度を備えたNVIDIA L4 GPUをサポートしています。


ワークロードサイズ
- 大型
- ミディアム
- 小さい
リソース

エッジAI
エッジビデオトランスコーディング、エッジ推論、エッジトレーニング
業界を問わず、従業員や顧客が都市、工場、小売店、病院などのエッジロケーションで関わる企業は、エッジでのAI導入への投資を増やしています。エッジでデータを処理し、AIやMLアルゴリズムを活用することで、企業は帯域幅とレイテンシの制限を克服し、タイムリーな意思決定、予測ケア、パーソナライズされたサービス、合理化された事業運営のためのリアルタイム分析を可能にします。
専用に構築され、環境に最適化されたSupermicro Edge AIサーバーは、さまざまなコンパクトなフォームファクターを備え、低レイテンシーに必要なパフォーマンス、事前に統合されたコンポーネントによるオープンアーキテクチャ、多様なハードウェアおよびソフトウェアスタックの互換性、複雑なエッジ展開に必要なプライバシーおよびセキュリティ機能セットをすぐに提供します。



ワークロードサイズ
- エクストララージ
- 大型
- ミディアム
- 小さい
リソース

AI対応システムの幅広いポートフォリオ


COMPUTEX 2024 CEO基調講演