【時報記者任珮云台北報導】AI話題熱議,2024年將拓展至更多邊緣AI應用,或延續AI server基礎,推至AI PC等終端裝置。TrendForce預期,2024年全球AI伺服器(包含AI Training及AI Inference)將超過160萬台,年成長率達40%,而後續預期CSP也將會更積極投入。

由於嚴謹的Edge AI應用,將回歸至終端的AI PC,藉以落實分散AI伺服器的工作量能,並且擴大AI使用規模的可能性。據此,TrendForce定義AI PC需達Microsoft要求的40 TOPS算力基礎,考量滿足此需求的新品出貨都將落於2024下半年,待CPU產業龍頭Intel於2024年終推出Lunar Lake後,2025年才可望見證更快速的成長。

目前AI PC市場可大致分為兩大推動力量,其一,由終端應用需求推動,主由Microsoft憑藉個人電腦Windows作業系統及Office等工具幾近獨占市場地位,預期將推新一代Windows整合Copilot,促使Copilot變成硬需求。其二,CPU領先者Intel訴求AI PC為搭配CPU+GPU+NPU架構,藉此推動發展各種終端AI應用。

以Microsoft Copilot對算力的要求來說,Qualcomm於2023年底發表的Snapdragon X Elite平台,將於2024年下半前率先出貨符合Copilot標準的CPU,算力應可達45 TOPS,而AMD隨後將推出的Ryzen 8000系列(Strix Point),估計也將符合該算力規格。若以Intel於2023年12月推出的Meteor Lake,其CPU+GPU+NPU算力僅34 TOPS,並不符合Microsoft要求,但預期今年底所推Lunar Lake則有機會超過40 TOPS門檻。

值得注意的是,未來在Qualcomm及Intel、AMD競逐AI PC過程,也將牽動x86及Arm兩大CPU陣營在Edge AI市場的競爭。由於Qualcomm有望率先符合Microsoft需求,以PC主要OEMs如Dell、HPE、LENOVO、或ASUS、ACER等在2024年將陸續開發搭載Qualcomm CPU機種,以爭取首波AI PC機會,將帶給X86陣營一定威脅。

AI PC有望帶動PC平均搭載容量提升,並拉高PC DRAM的LPDDR比重。針對現有Microsoft針對AI PC的規格要求來看,DRAM基本需求為16GB起跳,長期來看,TrendForce認為,AI PC將有機會帶動PC DRAM的位元需求年成長,後續伴隨著消費者的換機潮,進而加大產業對PC DRAM的位元需求。

再者,以Microsoft定義的滿足NPU 40 TOPS的CPU而言,共有三款且依據出貨時間先後分別為Qualcomm Snapdragon X Elite、AMD Strix Point及Intel Lunar Lake。其中,三款CPU的共同點為皆採用LPDDR5x,而非現在主流採用的DDR SO-DIMM模組,主要考量在於傳輸速度的提升;以DDR5規格而言,目前速度為4800-5600Mbps,而LPDDR5x則是落於7500-8533Mbps,對於需要接受更多語言指令,及縮短反應速度的AI PC將有所幫助。因此,TrendForce預期,今年LPDDR占PC DRAM需求約30~35%,未來將受到AI PC的CPU廠商的規格支援,從而拉高LPDDR導入比重再提升。

#邊緣AI應用 #CPU #Microsoft #TrendForce #年成長率