本文へスキップ
Supermicroサーバー・ポートフォリオの深さは、ラムダの資産です。トレーニングおよび推論のためのギガワットスケールのAIファクトリーを構築し、世界で最もAI先進的な組織向けにプロダクショングレードのAIクラウドを展開し、顧客向けに無限スケールのオンデマンド・コンピューティングを構築しようと努力している今、現在および将来のニーズを満たす強力なGPU最適化サーバーの選択肢を持つパートナーは頼りになります。"

-ラムダ、データセンター・インフラ担当副社長、ケネス・パチェット氏

クラウドインフラストラクチャに使用されるSupermicro 8U NVIDIA HGX B200 8GPUシステムのラムダ製ラックのクローズアップ

チャレンジ

  • ラムダは、技術的な発展や、より高速なパフォーマンスを求める顧客ニーズの高まりに対応するため、最新のNVIDIA GPUを搭載した最新のサーバーを導入する必要がありました。
  • ラムダは幅広いユーザーにサービスを提供しています。こうした需要の高まりに伴い、Lambdaはパフォーマンスや効率を犠牲にすることなくスケーラビリティを確保したいと考えていました。
  • ラムダは、高性能なサーバーとともに、顧客のニーズを満たす革新的なソフトウェアを開発する必要がありました。
  • 顧客が迅速に導入し、最小限のセットアップ時間でAIワークロードに必要な環境を構築できるようにしたいと考えていました。

解決方法

  • ラムダは、顧客の継続的な要求に応えるため、GPUに最適化されたサーバーとしてSupermicro 選択しました。
  • ラムダは顧客の高まる要求に応えるため、Intel CPUとNVIDIA Blackwell GPUを搭載したSupermicro システムの組み合わせを選択しました。
  • ラムダは、持続可能なスケーラビリティを確保するために、Supermicro液冷ソリューションを採用しました。
  • Supermicroモジュール式ビルディングブロックアーキテクチャは、迅速な導入を可能にし、市場投入までの時間を短縮しました。

会社概要
ラムダ
産業
クラウドサービスプロバイダー
所在地
アメリカ

主な結果

高度な冷却による効率の向上

この新しいサーバーは、大規模なAIワークロードを処理する場合でもエネルギー効率を維持できるよう、液冷を採用しています。

スケーラビリティのサポート

Supermicroユニークなアーキテクチャを活用することで、Lambdaはユースケースに応じてスケールアップまたはスケールダウンすることができます。

GPUパワーに簡単かつ即座にアクセス

1-Click-Clustersを使用すると、ユーザーは強力なGPUクラスタにわずか数分で、これまでよりもはるかに高速にアクセスできます。

AIの未来への準備

最新のGPUと高度なネットワークにより、ラムダは将来のAIモデルとテクノロジーをサポートするように構築されています。