「晶片教父」輝達(NVIDIA)創辦人暨執行長黃仁勳來台為Computex 2023電腦展揭開序幕,他展現超級業務員的身段,秀出多款生成式人工智慧平台,並親自介紹DGX新一代頂規GH200 AI電腦及Grace Hopper超級晶片等產品;黃仁勳強調,繪圖處理器效能將在五年內提升1,000倍,「GPU的摩爾定律,將由輝達來延續」。
COMPUTEX 29日召開展前會,黃仁勳舉辦大型演說,吸引3,500名觀眾與會。黃仁勳表示,我們現在正處於一個全新運算時代的轉捩點,加速運算和人工智慧已經被世界上幾乎所有的運算和雲端公司所接受。
黃仁勳在談話中,更用流利的台語指出:「AI Server省很多錢!」,能用更小的面積、更大的功耗,取代現有的資料中心。
由於生成式AI的成長速度驚人,目前有40,000家大型公司和15,000家新創公司已採用NVIDIA技術,去年CUDA軟體下載量更達2,500萬次,包括Adobe、微軟等均導入AI生成式應用。
黃仁勳29日亦重磅宣布具有龐大記憶體的人工智慧超級電腦DGX GH200,獲Google Cloud、Meta與微軟採用,該產品將256個NVIDIA Grace Hopper超級晶片連接成一個資料中心大小的GPU,並導入NVIDIA Grace CPU與H100 Tensor核心GPU集合在一個模組內。
此外,輝達的Grace Hopper超級晶片混合NVIDIA Grace CPU和Hopper GPU,並使用NVIDIA NVLink-C2C互連技術,提供高達900GB/s的頻寬,較傳統PCIe Gen5高7倍,採用台積電CoWoS先進封裝製程,已經進入量產。
雖然AI伺服器價格高昂,以搭載H100的AI伺服器為例,預估要價4萬美元,但黃仁勳強調,AI伺服器相較資料中心,有更強大的運算能力,更符合生成式AI訓練任務,而且同樣的功耗之下,能解省更多的空間,「The more you buy the more you save」(買愈多、省更多)。
黃仁勳也介紹MGX伺服器設計模組,提供系統製造商模組化架構以滿足全球資料中心多樣化的加速運算需求,如廣達旗下的雲達科技與美超微,都是首批使用設計模組廠商,其中伺服器規格支援100多種系統配置,用以加速處理AI、HPC及 Omniverse(協作與模擬平台)的任務。
發表意見
當您使用本網站留言服務時,視為已承諾願意遵守中華民國相關法令及一切使用網際網路之國際慣例。若您是中華民國以外之使用者,並同意遵守所屬國家或地域之法令。
您同意並保證不得利用本留言服務從事侵害本公司或他人權益及相關違法或未經本公司事前同意之行為(以下簡稱禁止行為),否則您除應自負文責外,並同意本公司逕行移除或修訂您的留言內容或限制您的留言權利或封鎖您的帳號,絕無異議。前述禁止之行為,包括但不限於: