その他

AI プロフェッショナルが NVIDIA から AMD への切り替えを検討していることが調査で明らかになり、Instinct MI300X のパフォーマンスとコストを引用

最近実施された調査により、AI 専門家の大部分が NVIDIA から AMD Instinct MI300X GPU への切り替えを検討していることが明らかになりました。

AMDのInstinct MI300Xは、大きな関心を集め、現在進行中のAI「ゴールドラッシュ」への同社参入への登竜門となる可能性がある

TensorWaveの共同創設者である Jeff Tatarchuk 氏は、82 人のエンジニアと AI 専門家を対象とした独立した調査で、彼らの約 50% が、価格対効果がより優れていることを考慮して、AMD Instinct MI300X GPU の利用に自信を示したことを明らかにしました。 NVIDIA H100 などの同等の製品と比較して、広範な可用性を備えているだけでなく、パフォーマンス比も優れています。それとは別に、Jeff 氏は、TensorWave が MI300X AI アクセラレータを採用すると述べています。これは、Team Red にとってもう 1 つの有望なニュースです。チーム Red の Instinct ラインナップが一般に、NVIDIA などの他のアクセラレータと比較して採用レベルが低いことを考慮します。

MI300X Instinct AI GPU について簡単に説明すると、この GPU は CDNA 3 アーキテクチャのみに基づいて設計されており、多くのことが行われています。 5nm と 6nm の IP を組み合わせてホストし、組み合わせて最大 1,530 億個のトランジスタ (MI300X) を提供します。メモリも大幅なアップグレードが見られる分野であり、MI300X は前世代の MI250X (128 GB) よりも 50% 多い HBM3 容量を誇ります。 NVIDIA の H100 との比較は次のとおりです。

  • 2.4 倍のメモリ容量
  • 1.6 倍のメモリ帯域幅
  • 1.3X FP8 TFLOPS
  • 1.3X FP16 TFLOPS
  • 1 対 1 の比較で、H100 (Llama 2 70B) と比較して最大 20% 高速化
  • 1 対 1 の比較で、H100 (FlashAttendant 2) と比較して最大 20% 高速化
  • 8v8 サーバーでは H100 (Llama 2 70B) と比較して最大 40% 高速
  • 8v8 サーバーでは H100 (Bloom 176B) と比較して最大 60% 高速

私たちは最近、AMDの主力製品であるInstinct AIアクセラレータが市場の競合他社にどのように「頭痛」を引き起こしているかを報告しました。これは、MI300X によるパフォーマンスの向上が大きいだけでなく、NVIDIA が現在、受注残の「重さ」に悩まされており、新規顧客の獲得における成長が妨げられているため、AMD がリリースのタイミングを完璧に決めたからです。チーム・レッドは望むようなスタートを切ることができなかったが、今後の期間は同社にとって実りあるものとなる可能性があり、市場の競合他社との直接対決に臨む可能性があるようだ。

(Source:wccftech)

関連記事

  1. Microsoft Windows11は、Intel Alder La…

  2. Microsoft、Windows 11の後継となる「Windows …

  3. Windows 11のリーク!Windows10Xからデザイン要素を借…

  4. TSMCは台湾南部に新しい工場を建設すると噂されています

  5. Houmo.AIが中国初のHPC AIチップの開発を発表

  6. AMD Ryzen 5000 Zen3デスクトップCPUが’…

  7. Intel、AMD、NVIDIAの高性能CPUやGPUにより、2022…

  8. Appleが注文の50%を削減することを計画、Intelノートブックの…

  9. Windows 12を、すでに準備中?! AIを統合する可能性大

  10. AI の提供により、NVIDIA は 2026 年までに 1,300 …

  11. AMDは来週までに Xilinxの買収を完了する予定

  12. Futuremarkが3DMarkDirectXレイトレーシングベンチ…

コメント

  • コメント (0)

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。

PAGE TOP