NVIDIAは、Intelの第4世代Xeon Sapphire Rapids CPUでスーパーチャージされた最新のHopper H100 AI GPUシステムを発表しました。
NVIDIA は、Intel の第4世代 Xeon Sapphire Rapids CPUを搭載した Hopper H100 AI システムで 25 倍の高効率を実現
プレス リリースでは、AIは、前例のない速度でのCOVID ワクチンの開発や癌の診断から、自動運転車への電力供給や気候変動の理解に至るまで、人類の最も変革的なイノベーションの中心にあります。
ほぼすべての業界が AIの採用から恩恵を受けることになりますが、ニューラル ネットワークの複雑さが増すにつれて、テクノロジはより多くのリソースを消費するようになっています。このコンピューティング インフラストラクチャを実行するために発電に持続不可能な要求を課すことを避けるために、基盤となるテクノロジは可能な限り効率的でなければなりません。
NVIDIA GPU とAI プラットフォームを搭載したアクセラレーテッド コンピューティングは、データ センターが次世代のブレークスルーを持続的に推進できる効率性を提供します。
そして今、第 4 世代 Intel Xeon スケーラブル プロセッサの発売に合わせて、NVIDIA とそのパートナーは、エネルギー効率の高い AI 向けに構築された新世代のアクセラレーテッド コンピューティング システムを開始しました。H100 Tensor コア GPU と組み合わせると、これらのシステムは前世代よりも劇的に高いパフォーマンス、より大きなスケール、およびより高い効率を実現し、ワットあたりの計算と問題解決を向上させます。
新しい Intel CPU は、DGX H100 システムだけでなく、世界中の NVIDIA パートナーの H100 GPU を搭載した 60 以上のサーバーで使用されます。
エンタープライズ AI の速度、効率、節約を大幅に向上
今後の NVIDIA と Intel 搭載のシステムは、企業が従来の CPU のみのデータ センター サーバーよりも平均 25 倍効率的にワークロードを実行するのに役立ちます。この驚くべきワットあたりのパフォーマンスは、ジョブを実行するために必要な電力が少なくて済むことを意味します。これにより、データセンターで利用可能な電力を可能な限り効率的に使用して、最も重要な作業を過給することができます。
前世代のアクセラレーション システムと比較して、この新世代の NVIDIA アクセラレーション サーバーは、トレーニングと推論を高速化し、エネルギー効率 を 3.5 倍に高めます。これは、AI データ センターが 3 分の 1 を超える総所有コストを実現することで、実質的なコスト削減につながります。
新しい第 4 世代 Intel Xeon CPU は、より多くのデータを移動して NVIDIA AI を加速します
新しい第 4 世代 Intel Xeon CPU の機能には、CPU から NVIDIA GPU およびネットワークへのデータ転送速度を 2 倍にする PCIe Gen 5 のサポートがあります。PCIe レーンの増加により、各サーバー内で GPU の高密度化と高速ネットワークが可能になります。
より高速なメモリ帯域幅は、AI などのデータ集約型ワークロードのパフォーマンスも向上させ、ネットワーク速度 (接続あたり最大 400 ギガビット/秒 (Gbps)) は、サーバーとストレージ間のより高速なデータ転送をサポートします。
NVIDIA の DGX H100 システムおよびサーバーは、H100 PCIe GPU と提携しており、NVIDIA AI Enterprise のライセンスが付属しています。NVIDIA AI Enterprise は、AI 開発および展開ソフトウェアのエンドツーエンドで安全なクラウドネイティブ スイートであり、効率的な企業における卓越性のための完全なプラットフォームを提供します。 AI。
NVIDIA DGX H100 システムがスーパーサイズ AI の効率を大幅に向上
世界最高の専用 AI インフラストラクチャの第 4 世代である DGX H100 システムは、高速化されたデータ センターのオペレーティング システムである NVIDIA Base Command ソフトウェアを搭載した、完全に最適化されたプラットフォームを提供します。
各 DGX H100 システムは、8 個の NVIDIA H100 GPU、10 個の NVIDIA ConnectX-7 ネットワーク アダプター、デュアル第 4 世代インテル Xeon スケーラブル プロセッサを備えており、大規模な生成 AI モデル、 大規模言語モデル、 レコメンダー システムなどの構築に必要なパフォーマンスを提供します。
NVIDIA ネットワーキングと組み合わせることで、このアーキテクチャは、前世代よりも最大 9 倍のパフォーマンスを提供し、AI トレーニングおよび HPC ワークロード用の高速化されていない X86 デュアル ソケット サーバーよりも 20 倍から 40 倍のパフォーマンスを提供することにより、大規模な効率的なコンピューティングを強化します。以前は、X86 のみのサーバーのクラスターで言語モデルをトレーニングするのに 40 日かかっていた場合、Intel Xeon CPU と ConnectX-7 を搭載したネットワークを使用する NVIDIA DGX H100 では、同じ作業をわずか 1 ~ 2 日で完了できます。
NVIDIA DGX H100 システムは、エンタープライズ対応のターンキー NVIDIA DGX SuperPOD のビルディング ブロックであり、最大 1 エクサフロップ の AI パフォーマンスを提供し、大規模なエンタープライズ AI 展開の効率を飛躍的に高めます。
NVIDIA パートナーがデータ センターの効率を向上
AI データ センターのワークロードの場合、NVIDIA H100 GPU により、企業はアプリケーションをより効率的に構築および展開できます。
世界中の企業に新世代のパフォーマンスとエネルギー効率をもたらす、H100 GPU と第 4 世代 Intel Xeon スケーラブル CPU を搭載した幅広いシステム ポートフォリオが、ASUS、Atos、Cisco、Dell Technologies、富士通、GIGABYTE、Hewlett などの NVIDIA パートナーから間もなく登場します。パッカード エンタープライズ、レノボ、QCT、スーパーマイクロ。
効率性向上の先駆者として、NVIDIA H100 GPU を搭載した Flatiron Institute の Lenovo ThinkSystem が最新の Green500 リストのトップにランクされ、リストの上位 30 システムのうち 23 に NVIDIA テクノロジが搭載されています。Flatiron システムは前世代の Intel CPU を使用しているため、現在市場に出ているシステムからさらに効率が期待されます。
さらに、サーバーを NVIDIA ConnectX-7 ネットワーキングと Intel 第 4 世代 Xeon スケーラブル プロセッサで接続すると、効率が向上し、インフラストラクチャと電力消費が削減されます。
NVIDIA ConnectX-7 アダプターは、イーサネットまたは InfiniBand を使用する接続ごとに PCIe Gen 5 および 400 Gbps をサポートし、サーバーとストレージ間のネットワーク スループットを 2 倍にします。アダプターは、高度なネットワーク、ストレージ、およびセキュリティ オフロードをサポートします。ConnectX-7 は、必要なケーブルとスイッチ ポートの数を減らし、大規模な GPU アクセラレーション HPC および AI クラスターのネットワークに必要な電力を 17% 以上節約し、これらの新しいサーバーのエネルギー効率の向上に貢献します。
NVIDIA AI エンタープライズ ソフトウェアがフルスタック AI ソリューションを提供
これらの次世代システムは、NVIDIA AI Enterprise ソフトウェア スイート向けに最適化されているため、運用効率も飛躍的に向上します。
NVIDIA H100 上で動作する NVIDIA AI Enterprise は、データ サイエンス パイプラインを加速し、予測 AI モデルの開発と展開を合理化して、重要なプロセスを自動化し、データから迅速に洞察を得ることができます。
リファレンス アプリケーションの AI ワークフロー、フレームワーク、事前トレーニング済みモデル、インフラストラクチャの最適化など、フルスタック ソフトウェアの広範なライブラリを備えたこのソフトウェアは、エンタープライズ AI の成功を拡大するための理想的な基盤を提供します。
NVIDIA AI Enterprise でサポートされている AI ワークフローとフレームワークを実行する NVIDIA H100 を試すには、NVIDIA LaunchPad に無料でサインアップしてください。第 4 世代 Intel Xeon スケーラブル プロセッサの発表イベントで、 NVIDIA の創業者兼CEO である Jensen Huang の講演をご覧ください。
(Source:wccftech)
この記事へのコメントはありません。