據媒體報道,被業界譽為“HBM(高帶寬內存)之父”的韓國學者金正浩指出,AI計算的主導權正加速從GPU向內存轉移。
隨著人工智能從生成式邁向智能體(Agentic AI)時代,內存正成為制約發展的關鍵瓶頸。金正浩認為,這一轉變的核心在於“上下文工程”的興起,AI需要同時處理海量文檔、視頻及多模態數據。
為支撐這一趨勢,內存帶寬與容量需實現最高達1000倍的提升,才能保障系統運行的速度與準確性。當輸入規模擴大100至1000倍時,內存需求可能呈指數級增長,最高甚至達到百萬倍。
在此背景下,金正浩指出,當前通過堆疊DRAM實現超高帶寬的HBM產品,或難以滿足智能體時代的需求。他重點看好HBF(High Bandwidth Flash,高帶寬閃存)技術。
作為一種新型存儲方案,HBF通過堆疊NAND閃存替代DRAM,構建類似“巨型書架”的長期存儲體系,在容量上實現數量級躍升。
金正浩進一步表示,AI產業的權力格局或將因此發生轉移,由GPU向內存傾斜。儘管現階段計算架構仍以GPU和CPU為核心,但未來的系統將圍繞超大容量內存(如HBM與HBF)構建,處理器則更像是嵌入其中的組件。
這一構想已在產業界初現端倪。今年2月,SK海力士在提交至電氣與電子工程師學會(IEEE)的論文中提出了“H3架構”,混合配置HBM與HBF。
論文指出,HBF相比HBM帶寬相當、容量更大,但訪問延遲更長、寫入耐久性更差、功耗更高。因此,H3將HBF作為HBM的“二級擴展”,HBF負責存儲只讀數據,HBM負責其餘數據。
金正浩預計,HBF工程樣品有望在2027年前後面世,谷歌、英偉達或AMD等廠商最快可能在2028年開始採用該技術。圍繞HBF的競爭或將重演HBM時代的格局,三星電子與SK海力士有望再度正面交鋒。