關鍵要點:
- 被譽為「HBM之父」的韓國科學技術院(KAIST)金政浩教授預測,到2028年,AI架構將從以GPU為中心轉向以存儲為中心。
- 下一代解決方案「高頻寬快閃記憶體」(HBF)將透過堆疊NAND快閃記憶體將存儲容量提升高達1000倍,以滿足代理型AI的需求。
- SK海力士和三星已展開HBF市場主導權爭奪,SK海力士成立了標準化聯盟,三星則在開發並行NAND架構。
關鍵要點:

AI架構可能會迎來根本性轉變,存儲而非GPU將成為新的計算中心。
被廣泛視為「HBM之父」的韓國科學技術院(KAIST)金政浩教授預測,目前的以GPU為中心的AI模型將在未來四年內被以存儲為中心的架構所取代。他認為,從生成式AI向更複雜的代理型AI(Agentic AI)的轉變,將要求存儲容量和頻寬增加高達1000倍,而現有技術無法滿足這一需求。
據韓國媒體報導,金教授表示:「代理型AI時代需要一種全新的存儲方案。」他的預測指向一個未來:海量數據集將直接在存儲系統中進行處理,從而減少數據在中央GPU之間往返傳輸所造成的瓶頸。
這一預測的核心是一種名為高頻寬快閃記憶體(HBF)的下一代解決方案,它涉及堆疊NAND快閃記憶體,而非目前高頻寬記憶體(HBM)中使用的DRAM。這將創造一個容量大得多的長期存儲「巨型書架」。HBF的工程樣品預計將於2027年左右面世,最早可能在2028年被Google、英偉達或AMD等主要廠商採用。
這一技術轉變拉開了韓國存儲巨頭SK海力士與三星電子之間新戰線的序幕。能夠成功實現HBF技術標準化並大規模生產的公司,將在AI硬體市場的下一階段佔據主導地位,並可能改變目前由英偉達等GPU製造商主導的競爭格局。
這種預測的架構變革背後的驅動力是AI應用本身的演進。隨著AI從簡單的內容生成轉向自主的「代理」系統,必須同時處理的數據量(即「上下文」)呈爆炸式增長。金教授將其稱為「上下文工程」的興起,即AI代理必須處理龐大的文檔庫、視頻和其他多模態數據才能有效運行。
為了達到這些任務所需的速度和精度,金教授估計存儲頻寬和容量需要實現驚人的1000倍提升。金教授引用的一些預測顯示,輸入規模增加100到1000倍,可能會導致存儲需求比目前高出多達100萬倍。現有的HBM技術透過垂直堆疊DRAM實現高速訪問,是目前AI加速器中的標準,但在達到這些水平之前,它將面臨容量天花板。HBM就像是一疊便利貼——訪問速度快但容量有限。相比之下,HBF被構築為一整面牆的圖書館,提供了完全不同量級的存儲空間。
開發這種下一代記憶體的競賽已經開始,重演了HBM開發期間的激烈競爭。HBM市場的領導者SK海力士已採取積極行動以確立早期優勢。今年2月,該公司與威騰電子的SanDisk成立了HBF標準化聯盟,旨在圍繞該技術構建生態系統。SK海力士還發表了關於「H3」架構的研究,該架構將HBM和新型HBF與GPU並列放置,實際上將處理單元嵌入到了一個更大的存儲系統中。
三星電子則在推行雙軌策略。據《亞洲日報》(Aju News)報導,在透過HBM4E等產品繼續推進其HBM產品線的同時,該公司也在開發自己的基於NAND的架構,這與HBF的概念一致。這場競爭不僅在於製造一種新芯片,更在於定義整個行業的標準。贏家將是那些能率先建立從標準制定、設計到大規模、低成本製造的完整週期的公司,從而在AI的未來中佔據關鍵地位。
本文僅供參考,不構成投資建議。