【時報記者林資傑台北報導】DIGITIMES研究中心指出,在大型雲端業者積極布局帶動下,AI伺服器需求暢旺,雖因封裝高頻寬記憶體(HBM)所需CoWoS先進封裝產能不足,認為2023年高階AI伺服器需求與供給將有超過35%的落差,但預估出貨量仍將跳增5倍、達17.2萬台。

生成式AI與大型語言模型(LLM)相關需求爆發,吸引大型雲端業者、主要伺服器品牌商皆加入AI伺服器軍備競賽,並將採購重點集中於採用高頻寬記憶體(HBM)為主的高階AI伺服器。

DIGITIMES研究中心預期,2023年全球主要雲端業者與品牌高階AI伺服器出貨量,將有8成以上集中於前五大業者。其中,注資OpenAI ChatGPT、並大量投入生成式AI雲服務的微軟(Microsoft),直接透過代工廠生產的高階AI伺服器出貨將稱冠。

長期投入生成式AI、也掌握關鍵技術的谷歌(Google),以投入自家研發的張量處理器(TPU)做為主攻的高階AI伺服器機種,透過代工廠產量將排名第二。最積極部署開源LLM模型的Meta出貨將居第三。

亞馬遜(Amazon)雖然投入腳步較慢,但也積極與第三方業者合作,預期透過代工廠出貨排名第四。美超微(Supermicro)、戴爾(Dell)、輝達(NVIDIA)及慧與(HPE)等品牌業者出貨則緊追在大型業者後。

至於高階AI伺服器採用的加速器種類,DIGITIMES 研究中心分析師蕭聖倫預期,今年NVIDIA HGX GPU系列將占近8成,其中H100 HGX出貨略多於A100 HGX。TPU因Google積極採用占比將逾1成,其他主要為PCIe版的NVIDIA 100系列,及少量的NVIDIA GH200與AMD、英特爾(Intel)等業者的高階GPU。

高階AI伺服器代工廠出貨方面,蕭聖倫預期英業達(2356)與美商ZT Systems,將分別為L6與L10~L12製造的最大贏家。前者因掌握多個大型雲端業者及品牌商訂單,今年占L6比重將近6成。

而ZT Systems則因早期即與大型雲端業者及相關技術提供者合作,具備大型GPU叢集系統整合技術優勢,蕭聖倫預期其L10~L12占比將近5成。至於台廠中,則以廣達(2382)在L10~L12布局最積極。

#高階 #AI伺服器 #雲端 #NVIDIA #廣達