主要ポイント
NVIDIAのジェンスン・フアンCEOは、同社の将来の「ファインマン」アーキテクチャがカスタム高帯域幅メモリ(HBM)を統合することを明らかにした。3月17日に発表されたこの戦略的決定は、次世代AIモデルのデータ集約型要件に対応し、今後登場する「ルービン」プラットフォームを超えたNVIDIAの長期的な製品ロードマップを強化することを目的としている。
- NVIDIAのCEOは確認した 将来のファインマンGPUアーキテクチャが、特殊なカスタムバージョンの高帯域幅メモリ(HBM)を採用することを。
- この戦略は狙っている 高度に統合されたプロセッサとメモリのサブシステムを開発することで、将来のAIシステムのパフォーマンスボトルネックを解決することを。
- この発表は示唆している SKハイニックスやサムスンといった主要なHBMサプライヤーに直接的な利益をもたらす、先進メモリに対する長期的な需要の継続を。
