為搶攻這波人工智慧(AI)浪潮帶來的商機,記憶體大廠美光(Micron)正全力布局高頻寬記憶體(HBM)市場。美光副總裁暨先進封裝主管 Akshay Singh 表示,預估2022~2025年的整體 HBM 市場年複合成長率(CAGR)將可望超過五成,美光未來在整體位元出貨比重將可望有一成是 HBM,且明年1 beta製程的 HBM3 Gen2 將開始量產出貨,全力搶食這波AI大餅。
Akshay Singh 指出,在 ChatGPT 出現之後,AI正滲透到所有使用者周邊,也變得相當廣為人知,且未來AI除了現在的主要以文字為主的大型語言模型(LLM)之外,未來還會把語音、參數等數據導入到 LLM 當中,由於AI訓練需要的記憶體大容量及高傳輸量都同步看增,使 HBM 需求開始大幅增加。
Akshay Singh 引用市場研究機構資料指出,從2022~2025年的 HBM 整體市場年複合成長率將達50%以上。Akshay Singh 表示,AI需求當中的 HBM 容量將會是一般市場需求的五倍以上,預期未來幾年美光在 HBM 位元出貨量將可望佔整體出貨比重的一成水準。
Akshay Singh 指出,美光推出的 HBM3 Gen 2 將會採用1 beta製程,當前已經在送樣階段,預計將在明年第1季開始放量出貨,並將採用先進封裝製程,讓8層晶粒堆疊讓一顆記憶體晶片就能有24Gb的容量,使其與一般記憶體面積尺寸幾乎相同。
據了解,目前美光採用的8層堆疊模式是全球首創,優勢在於堆疊層數越少,散熱效率就可望越高,讓晶片效能能夠穩定發揮,且現在美光已經規劃推出12層堆疊的36Gb DRAM 晶片,容量較先前8層堆疊可望提升50%,預期明年將可望對外亮相。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:AI浪潮來襲!美光全力衝HBM市場 「12層堆疊」明年可望亮相
地址:https://www.torrentbusiness.com/article/62746.html