AIアーキテクチャの根本的な転換が近づいている可能性があり、GPUではなくメモリがコンピューティングの新たな中心になろうとしています。
「HBMの父」として広く知られるKAISTの金政浩(キム・ジョンホ)教授の予測によれば、現在のGPU中心のAIモデルは、今後4年以内にメモリ中心のアーキテクチャによって覆されることになります。同教授は、生成AIからより複雑な「エージェンティックAI(自律型AI)」への移行には、メモリ容量と帯域幅を最大1000倍に増やす必要があり、現在の技術ではその需要を満たせないと主張しています。
韓国メディアの報道によると、金教授は「エージェンティックAIの時代には、メモリに対する新しいアプローチが必要だ」と述べました。同教授の予測は、膨大なデータセットがメモリシステム内で直接処理され、中央のGPUとの間でデータをやり取りすることによって生じるボトルネックを解消する未来を指し示しています。
この予測の核心は、現在の高帯域幅メモリ(HBM)で使用されているDRAMの代わりにNANDフラッシュメモリを積層する「高帯域幅フラッシュ(HBF)」と呼ばれる次世代ソリューションです。これにより、はるかに大きな容量を持つ長期メモリの「巨大な本棚」が構築されます。HBFのエンジニアリングサンプルは2027年頃に登場する見込みで、早ければ2028年にもGoogle、Nvidia、AMDなどの主要プレイヤーに採用される可能性があります。
この技術的なシフトは、韓国のメモリ大手であるSKハイニックスとサムスン電子の間の新たな戦いの舞台を整えるものです。HBF技術の標準化と量産に成功した企業が、AIハードウェア市場の次なるフェーズで支配的な地位を確保し、NvidiaなどのGPUメーカーが主導する現在の競争環境を塗り替える可能性があります。
1000倍のメモリ問題
この予測されるアーキテクチャの破壊を後押ししているのは、AIアプリケーション自体の進化です。AIが単なる生成を超えて自律的な「エージェント」システムへと移行するにつれ、同時に処理しなければならないデータ量、つまり「コンテキスト」が爆発的に増加します。金教授はこれを「コンテキスト・エンジニアリング」の台頭と呼び、AIエージェントが効果的に機能するためには、膨大な文書ライブラリや動画、その他のマルチモーダルデータを処理する必要があると説明しています。
これらのタスクに必要な速度と精度を達成するために、金教授はメモリ帯域幅と容量に驚異的な1000倍の改善が必要であると見積もっています。金教授が引用したいくつかの予測によれば、入力スケールが100倍から1000倍に増加すると、メモリ需要は現在の要件の最大100万倍に達する可能性があります。DRAMを垂直に積層して高速アクセスを実現し、現在のAIアクセラレータの標準となっている既存のHBM技術は、そのレベルに達するずっと前に容量の限界にぶつかるでしょう。HBMはいわば「付箋の束」のようなもので、アクセスは速いものの容量に限りがあります。対照的に、HBFは「図書館の壁一面」として構想されており、全く異なる桁違いのストレージ容量を提供します。
SKハイニックスとサムスンが描く新たな戦線
この次世代メモリを開発するレースはすでに始まっており、HBMの開発時に見られた激しいライバル関係が再現されています。HBM市場のリーダーであるSKハイニックスは、早期の優位性を確立するために積極的に動いています。今年2月、同社はウェスタンデジタルのサンディスクとHBF標準化同盟を結成し、この技術を中心としたエコシステムの構築に乗り出しました。SKハイニックスはまた、HBMと新しいHBFをGPUと並べて配置し、処理ユニットをより大きなメモリシステムの中に事実上組み込む「H3」アーキテクチャに関する研究も発表しています。
サムスン電子は2トラック戦略を追求しています。亜洲経済(Aju News)の報道によると、同社はHBM4Eなどの製品でHBMのラインナップを進化させ続ける一方で、HBFのコンセプトに沿った独自のNANDベースのアーキテクチャも開発しています。競争は単に新しいチップを製造することだけでなく、業界全体の標準を定義することにまで及んでいます。勝者は、標準化と設計から、大量かつコスト効率の高い製造に至るまでの完全なサイクルを最初に構築し、AIの未来において重要な役割を確保した企業となるでしょう。
この記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。