- SKハイニックスは、AIサーバーの新規格となる大容量192GB SOCAMM2メモリモジュールの量産を開始しました。
- このメモリは同社の最新の1cnm LPDDR5X DRAMプロセスを採用しており、データセンターの電力効率と密度を最大化します。
- これらのモジュールは、エヌビディアの次世代Vera Rubin AIプラットフォーム向けに特別に設計されており、両社のパートナーシップを深めるものです。
戻る

SKハイニックスは、エヌビディアの次世代Vera Rubin(ベラ・ルービン)AIプラットフォーム向けに設計された192ギガバイトのメモリモジュールの量産を開始し、人工知能サプライチェーンにおける重要な役割をさらに深めています。この動きは、2026年のプラットフォーム投入を前に、AIインフラの性能ボトルネックを解消することを目的としています。
SKハイニックスの担当者は発表の中で、「これにより推論コストのギャップが埋まる」と述べました。同社は「AIインフラのボトルネックを解決し、最適なパフォーマンスを提供するために、エヌビディアと緊密に協力していく」としています。
新しいSOCAMM2モジュールは、従来モバイル機器で使用されていた低電力LPDDR5Xメモリを採用し、AIサーバーの高い要求に合わせて最適化したものです。SKハイニックスの最新の1cnmプロセス(第6世代10ナノメートル技術)で構築された192GBパッケージは、大幅な密度の向上を実現し、電力効率を最大化しています。これにより、データセンターにおけるより強力で効率的なAIモデルの学習と推論が可能になります。
この開発により、AIアクセラレータ分野の支配的な勢力であるエヌビディアにとっての主要サプライヤーとしてのSKハイニックスの地位はより強固なものとなりました。投資家にとって、この提携はAIハードウェア構築に関連する将来の収益源を示す重要な指標です。しかし、報告によると、Rubinプラットフォームの立ち上げが遅れる可能性から、SKハイニックスが同プラットフォーム向けのHBM4出荷を20〜30%削減することを検討しているという潜在的な逆風も示唆されています。一方で、競合のサムスン電子は独自の先端2nmプロセスの開発に取り組んでいますが、歩留まりの課題に直面しており、半導体製造の最先端を維持するために必要な莫大な技術的困難と資本投資が浮き彫りになっています。
SOCAMM2規格は、サーバー用メモリ・アーキテクチャの転換を象徴しています。低電力DRAMをよりコンパクトで効率的なモジュールにパッケージ化することで、拡大し続けるAIモデルによって引き起こされるメモリ帯域幅と容量への需要増に対応します。高度な1cnmノードでこれらのモジュールを量産できるSKハイニックスの能力は、ハイステークスなAIハードウェアコンポーネント市場において競争優位性をもたらします。
この記事は情報提供のみを目的としており、投資助言を構成するものではありません。