智通財經(jīng)APP獲悉,據(jù)TrendForce集邦咨詢最新HBM市場研究顯示,為了更妥善且健全的供應(yīng)鏈管理,NVIDIA(NVDA.US)也規(guī)劃加入更多的HBM供應(yīng)商,其中三星的HBM3(24GB)預(yù)期于今年12月在英偉達完成驗證。而HBM3e進度依據(jù)時間軸排列如下表所示,美光(MU.US)已于今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士已于今年8月中提供8hi(24GB)樣品、三星則于今年10月初提供8hi(24GB)樣品。
NVIDIA持續(xù)擴展AI芯片產(chǎn)品 在高端芯片市場擁最大優(yōu)勢
展望2024年,觀察目前各AI芯片供應(yīng)商的項目進度,NVIDIA 2023年的高端AI芯片(采用HBM)的既有產(chǎn)品為A100/A800以及H100/H800;2024年則將把產(chǎn)品組合(Product Portfolio)更細致化的分類。除了原上述型號外,還將再推出使用6顆HBM3e的H200以及8顆HBM3e的B100,并同步整合NVIDIA自家基于Arm架構(gòu)的 CPU與GPU,推出GH200以及GB200。
相比同時期的AMD(AMD.US)與Intel(INTC.US)產(chǎn)品規(guī)劃,AMD2024年出貨主流為MI300系列,采用HBM3,下一代MI350將采用HBM3e,預(yù)計2024下半年開始進行HBM驗證,實際看到較明顯的產(chǎn)品放量(Ramp
Up)時間預(yù)估應(yīng)為2025年第一季。
以Intel Habana來看,2022下半年推出的Gaudi 2采用6顆HBM2e,2024年中預(yù)期在新型號Gaudi 3持續(xù)采取HBM2e,但將用量升級至8顆。因此,TrendForce集邦咨詢認為,NVIDIA在HBM規(guī)格、產(chǎn)品準備度(Readiness)及時間軸上,可望持續(xù)以領(lǐng)先的GPU規(guī)格,在AI芯片競局取得領(lǐng)先。
HBM4或?qū)⑥D(zhuǎn)向客制化 擺脫Commodity DRAM產(chǎn)品框架
除了HBM3與HBM3e外,據(jù)TrendForce集邦咨詢了解, HBM4預(yù)計規(guī)劃于2026年推出,目前包含NVIDIA以及其他CSP(云端業(yè)者)在未來的產(chǎn)品應(yīng)用上,規(guī)格和效能將更優(yōu)化。受到規(guī)格更往高速發(fā)展帶動,將首次看到HBM最底層的Logic die(又名Base die)采用12nm制程wafer,該部分將由晶圓代工廠提供,使得單顆HBM產(chǎn)品需要結(jié)合晶圓代工廠與存儲器廠的合作。
再者,隨著客戶對運算效能要求的提升,HBM4在堆棧的層數(shù)上,除了現(xiàn)有的12hi (12層)外,也將再往16hi (16層)發(fā)展,更高層數(shù)也預(yù)估帶動新堆棧方式hybrid bonding的需求。HBM4 12hi產(chǎn)品將于2026年推出;而16hi產(chǎn)品則預(yù)計于2027年問世。
最后,TrendForce集邦咨詢也觀察到,針對HBM4,各買方也開始啟動客制化要求,除了HBM可能不再僅是排列在SoC主芯片旁邊,亦有部分討論轉(zhuǎn)向堆棧在SoC主芯片之上。雖然目前所有選項仍在討論可行性中,并尚未定案,但TrendForce集邦咨詢認為,未來HBM產(chǎn)業(yè)將轉(zhuǎn)為更客制化的角度發(fā)展,相比其他DRAM產(chǎn)品,在定價及設(shè)計上,更加擺脫Commodity DRAM的框架,呈現(xiàn)特定化的生產(chǎn)。