その他

AI プロフェッショナルが NVIDIA から AMD への切り替えを検討していることが調査で明らかになり、Instinct MI300X のパフォーマンスとコストを引用

最近実施された調査により、AI 専門家の大部分が NVIDIA から AMD Instinct MI300X GPU への切り替えを検討していることが明らかになりました。

AMDのInstinct MI300Xは、大きな関心を集め、現在進行中のAI「ゴールドラッシュ」への同社参入への登竜門となる可能性がある

TensorWaveの共同創設者である Jeff Tatarchuk 氏は、82 人のエンジニアと AI 専門家を対象とした独立した調査で、彼らの約 50% が、価格対効果がより優れていることを考慮して、AMD Instinct MI300X GPU の利用に自信を示したことを明らかにしました。 NVIDIA H100 などの同等の製品と比較して、広範な可用性を備えているだけでなく、パフォーマンス比も優れています。それとは別に、Jeff 氏は、TensorWave が MI300X AI アクセラレータを採用すると述べています。これは、Team Red にとってもう 1 つの有望なニュースです。チーム Red の Instinct ラインナップが一般に、NVIDIA などの他のアクセラレータと比較して採用レベルが低いことを考慮します。

MI300X Instinct AI GPU について簡単に説明すると、この GPU は CDNA 3 アーキテクチャのみに基づいて設計されており、多くのことが行われています。 5nm と 6nm の IP を組み合わせてホストし、組み合わせて最大 1,530 億個のトランジスタ (MI300X) を提供します。メモリも大幅なアップグレードが見られる分野であり、MI300X は前世代の MI250X (128 GB) よりも 50% 多い HBM3 容量を誇ります。 NVIDIA の H100 との比較は次のとおりです。

  • 2.4 倍のメモリ容量
  • 1.6 倍のメモリ帯域幅
  • 1.3X FP8 TFLOPS
  • 1.3X FP16 TFLOPS
  • 1 対 1 の比較で、H100 (Llama 2 70B) と比較して最大 20% 高速化
  • 1 対 1 の比較で、H100 (FlashAttendant 2) と比較して最大 20% 高速化
  • 8v8 サーバーでは H100 (Llama 2 70B) と比較して最大 40% 高速
  • 8v8 サーバーでは H100 (Bloom 176B) と比較して最大 60% 高速

私たちは最近、AMDの主力製品であるInstinct AIアクセラレータが市場の競合他社にどのように「頭痛」を引き起こしているかを報告しました。これは、MI300X によるパフォーマンスの向上が大きいだけでなく、NVIDIA が現在、受注残の「重さ」に悩まされており、新規顧客の獲得における成長が妨げられているため、AMD がリリースのタイミングを完璧に決めたからです。チーム・レッドは望むようなスタートを切ることができなかったが、今後の期間は同社にとって実りあるものとなる可能性があり、市場の競合他社との直接対決に臨む可能性があるようだ。

(Source:wccftech)

関連記事

  1. ASUS ROG Ally は、AMD Ryzen Z1 APU 上の…

  2. NVIDIA、ロシアのすべての GPU オペレーションとメイン オフィ…

  3. DeepCoolは、洗練された美学とLGA1700互換性を備えたプレミ…

  4. AMDのCEO、Lisa Su氏がCiscoの取締役を辞任

  5. Intelの「BonanzaMine」ビットコインマイニングチップが最…

  6. インテルの次世代ボックスCPUクーラーLaminar シリーズ、第12…

  7. グラフィックカードの出荷は2022年の夏までに大幅に改善されると報告書…

  8. AI の提供により、NVIDIA は 2026 年までに 1,300 …

  9. Intelが、Aurora genAI を発表、1 兆のパラメーターを…

  10. Microsoft Windows11は、Intel Alder La…

  11. 米国政府が半導体生産施設設立のためにインテルやTSMCなどのチップメー…

  12. TSMCは今年、大規模な採用活動を通じて6,000人の従業員を採用する…

コメント

  • コメント (0)

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。

PAGE TOP