その他

AI プロフェッショナルが NVIDIA から AMD への切り替えを検討していることが調査で明らかになり、Instinct MI300X のパフォーマンスとコストを引用

最近実施された調査により、AI 専門家の大部分が NVIDIA から AMD Instinct MI300X GPU への切り替えを検討していることが明らかになりました。

AMDのInstinct MI300Xは、大きな関心を集め、現在進行中のAI「ゴールドラッシュ」への同社参入への登竜門となる可能性がある

TensorWaveの共同創設者である Jeff Tatarchuk 氏は、82 人のエンジニアと AI 専門家を対象とした独立した調査で、彼らの約 50% が、価格対効果がより優れていることを考慮して、AMD Instinct MI300X GPU の利用に自信を示したことを明らかにしました。 NVIDIA H100 などの同等の製品と比較して、広範な可用性を備えているだけでなく、パフォーマンス比も優れています。それとは別に、Jeff 氏は、TensorWave が MI300X AI アクセラレータを採用すると述べています。これは、Team Red にとってもう 1 つの有望なニュースです。チーム Red の Instinct ラインナップが一般に、NVIDIA などの他のアクセラレータと比較して採用レベルが低いことを考慮します。

MI300X Instinct AI GPU について簡単に説明すると、この GPU は CDNA 3 アーキテクチャのみに基づいて設計されており、多くのことが行われています。 5nm と 6nm の IP を組み合わせてホストし、組み合わせて最大 1,530 億個のトランジスタ (MI300X) を提供します。メモリも大幅なアップグレードが見られる分野であり、MI300X は前世代の MI250X (128 GB) よりも 50% 多い HBM3 容量を誇ります。 NVIDIA の H100 との比較は次のとおりです。

  • 2.4 倍のメモリ容量
  • 1.6 倍のメモリ帯域幅
  • 1.3X FP8 TFLOPS
  • 1.3X FP16 TFLOPS
  • 1 対 1 の比較で、H100 (Llama 2 70B) と比較して最大 20% 高速化
  • 1 対 1 の比較で、H100 (FlashAttendant 2) と比較して最大 20% 高速化
  • 8v8 サーバーでは H100 (Llama 2 70B) と比較して最大 40% 高速
  • 8v8 サーバーでは H100 (Bloom 176B) と比較して最大 60% 高速

私たちは最近、AMDの主力製品であるInstinct AIアクセラレータが市場の競合他社にどのように「頭痛」を引き起こしているかを報告しました。これは、MI300X によるパフォーマンスの向上が大きいだけでなく、NVIDIA が現在、受注残の「重さ」に悩まされており、新規顧客の獲得における成長が妨げられているため、AMD がリリースのタイミングを完璧に決めたからです。チーム・レッドは望むようなスタートを切ることができなかったが、今後の期間は同社にとって実りあるものとなる可能性があり、市場の競合他社との直接対決に臨む可能性があるようだ。

(Source:wccftech)

関連記事

  1. NVIDIA と Microsoft が協力してAIアプリケーションを…

  2. ASUS ROG Ally は、AMD Ryzen Z1 APU 上の…

  3. AMD Ryzen 5000 Zen3デスクトップCPUが’…

  4. NVIDIA、Intel、ARM が AI の未来を FP8 に賭ける…

  5. TSMCは台湾南部に新しい工場を建設すると噂されています

  6. 既知の Microsoft Windows 11 の問題により、SSD…

  7. JefferiesがBlackwell GPUの生産量増加を受けてNV…

  8. Houmo.AIが中国初のHPC AIチップの開発を発表

  9. Intel XTU「ExtremeTuningUtility」がAld…

  10. 見た目の最高のCPUクーラーがついに登場!!DeepCool Assa…

  11. AMDがRDNA2GPUサポートとInstinctアクセラレータへのア…

  12. Windows 12を、すでに準備中?! AIを統合する可能性大

コメント

  • コメント (0)

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。

PAGE TOP