HBF的「高頻寬、低成本、TB級容量」目標,如何解決AI運算的「記憶體牆」瓶頸? | 數位時代

HBF 如何突破 AI 運算的「記憶體牆」瓶頸?

AI 運算效能提升的瓶頸,已從 GPU 算力轉向記憶體容量與頻寬。傳統的解決方案,如 HBM(高頻寬記憶體),雖然能提供極高的速度和低延遲,但成本高昂、產能受限,且難以擴充至 TB 級容量,無法滿足大型 AI 模型的需求。為了解決這個問題,HBF(高頻寬快閃)應運而生,目標是提供「高頻寬、低成本、TB 級容量」的解決方案,以突破 AI 運算的「記憶體牆」瓶頸。

HBF 與 HBM 的分工合作

HBF 的設計理念是與 HBM 互補,而非取代。HBF 透過將大量快閃記憶體堆疊在 GPU 旁,形成一個「大容量、中速」的近端資料倉,讓 AI 系統能將常用的大型知識儲存在 HBF 中,再按需高速提供給 HBM 與 GPU,從而減少等待時間,使推論流程更順暢。HBM 負責處理極高速、低延遲的即時熱資料,而 HBF 則提供更大且更便宜的近端容量,緩解 HBM 的容量與供應瓶頸,使記憶體金字塔回到可持續的比例。

HBF 的技術與市場前景

在技術上,HBF 與 HBM 相似,皆採用多層晶粒垂直堆疊和矽穿孔(TSV)互連技術,但 HBF 堆疊的是 NAND Flash(快閃記憶體),而非 DRAM。目前,多家記憶體大廠已將 HBF 納入開發計畫,如 SanDisk、SK 海力士、鎧俠和三星。預計 HBF 將於 2027 至 2028 年走向商業化,並可能重塑記憶體產業的版圖。對於台灣廠商而言,HBF 的封裝形式與 HBM 高度相似,因此台灣的先進封裝產業有機會切入 HBF 的供應鏈,尤其是在高速測試設備、訊號完整性分析和可靠度驗證等領域。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容