TrendForce最新市場研究顯示,為了更妥善且健全供應鏈管理,輝達(NVIDIA)規劃加入更多高頻寬記憶體(HBM)供應商,其中,三星(Samsung)的HBM3(24GB)預期提早於今年12月在NVIDIA完成驗證。

而HBM3e進度,美光(Micron)已於今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士(SK hynix)已於今年8月中提供8hi(24GB)樣品、三星則於今年10月初提供8hi(24GB)樣品。

由於HBM驗證過程繁瑣,預計耗時兩個季度,TrendForce預期,最快在2023年底,可望取得部分廠商的HBM3e驗證結果,而三大原廠均預計於2024年第一季完成驗證。

值得注意的是,各原廠的HBM3e驗證結果,也將決定最終NVIDIA 2024年在HBM供應商的採購權重分配,目前驗證皆尚未完成,因此,2024年HBM整體採購量仍有待觀察。

展望2024年,觀察目前各AI晶片供應商的開案進度,NVIDIA 2023年的高階AI晶片(採用HBM)的既有產品為A100/A800以及H100/H800;2024年則將把產品組合(Product Portfolio)更細緻化的分類。

除了原上述型號之外,該公司也規劃推出使用6顆HBM3e的H200以及8顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的CPU與GPU,推出GH200以及GB200。

至於AMD與Intel產品規劃,AMD 2024年出貨主流為MI300系列,採用HBM3,下一代MI350將採用HBM3e,預計2024下半年開始進行HBM驗證,實際看到較明顯的產品放量(Ramp Up)時間預估應為2025年第一季。

以Intel Habana來看,2022下半年推出的Gaudi 2採用6顆HBM2e,2024年中預期在新型號Gaudi 3持續採取HBM2e,但將用量升級至8顆。

因此,TrendForce認為,NVIDIA在HBM規格、產品準備度(Readiness)及時間軸上,可望持續以領先的GPU規格,在AI晶片競局取得領先。

#NVIDIA #GPU #AI晶片 #三星 #美光 #高頻寬記憶體