【時報記者葉時安台北報導】根據TrendForce最新的enterprise企業級 SSD研究報告,由於AI需求大幅升溫,最近兩季AI server相關客戶向供應商進一步要求加單enterprise SSD,enterprise SSD合約價於2023年第四季至2024年第三季間的累積漲幅超過80%。而上游供應商為了滿足SSD在AI應用上的供給,加速製程升級,開始規畫2YY產品,預期於2025年量產。
TrendForce表示,AI server客戶對供應商加單的情況,導致enterprise SSD合約價於2023年第四季至2024年第三季間的累積漲幅超過80%。SSD在AI發展扮演重要角色,除了在AI模型訓練過程中,SSD主要負責儲存模型參數,包含不斷演變的權重和偏差,另一項重要應用是創建檢查點(check point),以定期保存AI模型訓練進度,即使訓練中斷也能從特定點恢復。由於上述功能都相當依賴高速傳輸以及寫入耐用度,因此客戶主要選擇使用4TB/8TB TLC SSD產品,以滿足嚴苛的訓練過程需求。
TrendForce指出,SSD應用於AI inference server,可在推理過程中協助調整、優化AI模型,尤其SSD可以即時更新數據,以便微調推論模型成果。AI inference主要提供檢索增強生成(RAG, Retrieval-Augmented Generation)和大型語言模型(LLM, Large Language Model)服務,而SSD可以儲存RAG和LLM參考的相關文檔和知識庫,以生成含有更豐富資訊的回應。此外,因為有更多生成資訊是以影片或相片顯示,其資料的存儲量也跟著增加,因此,TLC/QLC 16TB以上等大容量SSD便成為AI inference主要採用的產品。
2024年AI server SSD需求市場除了16TB以上產品需求自第二季大幅上升,隨著NVIDIA H100、H20和H200等系列產品到貨,相關客戶開始進一步加大TLC 4、8TB enterprise SSD訂單動能。根據TrendForce預估,今年AI相關SSD採購容量將超過45EB,未來幾年AI server可望推動SSD需求年增率平均超過60%,而AI SSD需求在全部NAND Flash的占比有機會自2024年的5%,上升至2025年的9%。
在供給市場面,由於inference server採用大容量SSD產品的趨勢不變,供應商已開始著手加速升級製程,規畫從2025年第一季起開始量產2YY/3XX層,進而量產120TB enterprise SSD產品。
發表意見
當您使用本網站留言服務時,視為已承諾願意遵守中華民國相關法令及一切使用網際網路之國際慣例。若您是中華民國以外之使用者,並同意遵守所屬國家或地域之法令。
您同意並保證不得利用本留言服務從事侵害本公司或他人權益及相關違法或未經本公司事前同意之行為(以下簡稱禁止行為),否則您除應自負文責外,並同意本公司逕行移除或修訂您的留言內容或限制您的留言權利或封鎖您的帳號,絕無異議。前述禁止之行為,包括但不限於: