NVIDIA のBlackwell AI GPU は、 CoWoS (TSMC) や HBM DRAM を含む他のすべての関連セグメントを押し上げると予想されており、市場では 2025 年までに数百万個のチップが出荷されるとのことです。
NVIDIA の Blackwell AI GPU のおかげで、HBM とチップ パッケージング業界は今後 1 年間で驚異的な成長を遂げ、2025 年には膨大な量の出荷が見込まれる
TrendForce は、最新の AI 向け NVIDIA Blackwell GPU が、市場にもたらすパフォーマンスが複数の大手クライアントの注目を集めているため、業界の次の「聖杯」になる準備ができていると報告しています。これには、 2025 年までに NVIDIA の Blackwell 供給の 40% から 50% を占めると予測されているGB200 SUPERCHIPが含まれます。したがって、数百万ユニットの Blackwell GPU が生産され、NVIDIA のHopper ラインナップの成功を再現することになります。
しかし、この大幅な需要増加により、NVIDIA 関連の供給企業にとっては市場需要が急増する年となるため、TSMC などの企業は既存の施設を拡張する必要が出てきます。
サプライチェーンは GB200 に大きな期待を寄せており、予測によれば、その出荷数は 2025 年までに数百万台を超え、NVIDIA のハイエンド GPU 市場の 40 ~ 50% 近くを占める可能性があるとのことです。
―トレンドフォース
TSMCのCoWoS(チップ・オン・ウェーハ・オン・サブストレート)の総生産能力は、2024年末までに最大4万ユニットに達すると予想されており、これは台湾の巨人が直面している巨大な需要のおかげで、前年比150%という驚異的な増加を示しています。さらに、他のAI製品にとっても、CoWoSテクノロジーは重要な役割を果たしており、パッケージングセグメントが著しく増加することを意味します。
CoWoS 市場とは別に、NVIDIA の Blackwell GPU は、特に NVIDIA や他の競合他社の主流製品でまだ実現が待たれている HBM3 から HBM3e DRAM への世代交代により、HBM セグメントを新たな高みに引き上げると予想されています。
さらに、GB200、B200、B100 などの NVIDIA の Blackwell AI GPU の登場により、HBM3e の採用率は大幅に向上するでしょう。容量のアップグレードも当然ながら行われ、2024 年末までに最大 192 GB と 288 GB に達すると予想されています。
今後の AI 市場は、市場の誇大宣伝だけでなく、既存の市場とは大きく異なるものになるでしょう。それでも、genAI と AGI が最近大規模に導入され、コンピューティング セグメントとクライアント セグメントの両方が推進されているため、今回は収益源がはるかに大きくなります。
(Source:wccftech)
この記事へのコメントはありません。