最近実施された調査により、AI 専門家の大部分が NVIDIA から AMD Instinct MI300X GPU への切り替えを検討していることが明らかになりました。
AMDのInstinct MI300Xは、大きな関心を集め、現在進行中のAI「ゴールドラッシュ」への同社参入への登竜門となる可能性がある
TensorWaveの共同創設者である Jeff Tatarchuk 氏は、82 人のエンジニアと AI 専門家を対象とした独立した調査で、彼らの約 50% が、価格対効果がより優れていることを考慮して、AMD Instinct MI300X GPU の利用に自信を示したことを明らかにしました。 NVIDIA H100 などの同等の製品と比較して、広範な可用性を備えているだけでなく、パフォーマンス比も優れています。それとは別に、Jeff 氏は、TensorWave が MI300X AI アクセラレータを採用すると述べています。これは、Team Red にとってもう 1 つの有望なニュースです。チーム Red の Instinct ラインナップが一般に、NVIDIA などの他のアクセラレータと比較して採用レベルが低いことを考慮します。
In a survey conducted recently among 82 engineers and AI professionals, it stated 50% of the respondents are actively considering using the AMD Instinct MI300X GPU.
The top three reasons for considering the AMD MI300X are availability, cost, and performance, in that order.
We… pic.twitter.com/ZckHBj6b20
— Jeff Tatarchuk (@jtatarchuk) March 8, 2024
MI300X Instinct AI GPU について簡単に説明すると、この GPU は CDNA 3 アーキテクチャのみに基づいて設計されており、多くのことが行われています。 5nm と 6nm の IP を組み合わせてホストし、組み合わせて最大 1,530 億個のトランジスタ (MI300X) を提供します。メモリも大幅なアップグレードが見られる分野であり、MI300X は前世代の MI250X (128 GB) よりも 50% 多い HBM3 容量を誇ります。 NVIDIA の H100 との比較は次のとおりです。
- 2.4 倍のメモリ容量
- 1.6 倍のメモリ帯域幅
- 1.3X FP8 TFLOPS
- 1.3X FP16 TFLOPS
- 1 対 1 の比較で、H100 (Llama 2 70B) と比較して最大 20% 高速化
- 1 対 1 の比較で、H100 (FlashAttendant 2) と比較して最大 20% 高速化
- 8v8 サーバーでは H100 (Llama 2 70B) と比較して最大 40% 高速
- 8v8 サーバーでは H100 (Bloom 176B) と比較して最大 60% 高速
私たちは最近、AMDの主力製品であるInstinct AIアクセラレータが市場の競合他社にどのように「頭痛」を引き起こしているかを報告しました。これは、MI300X によるパフォーマンスの向上が大きいだけでなく、NVIDIA が現在、受注残の「重さ」に悩まされており、新規顧客の獲得における成長が妨げられているため、AMD がリリースのタイミングを完璧に決めたからです。チーム・レッドは望むようなスタートを切ることができなかったが、今後の期間は同社にとって実りあるものとなる可能性があり、市場の競合他社との直接対決に臨む可能性があるようだ。
(Source:wccftech)
この記事へのコメントはありません。