搜尋

Nvidia

的結果
  • 宏碩蒸發器 傳獲NVIDIA採用

     宏碩系統(6895)6日舉行法說會,總經理陳漢穎表示,多數研調機構預期2024年全球半導體景氣可望回春,而該公司半導體相關產品營收占比多達5成,因此對2024年營運展望也是樂觀期待,同時,他也透露,公司蒸發器產品打入AI邏輯測試儀市場,終端客戶是全球最大AI晶片廠,市場推測是輝達(NVIDIA),預料也將有利2024年營運表現。  對於2024年展望,陳漢穎表示,宏碩主要產品是真空微波管等產品,以營運比重來看,目前半導體相關產品營收占比約5成,軍用產品則占3成,若以大環境來看,目前多數研調機構均看好,2024年全球半導體景氣可望較2023年回溫,對宏碩系統來說也可望受惠,但以近幾年來,全球不確定因素相當多,若2024年外在條件沒有意外,公司對2024年景氣及公司營運也是樂觀期待。  此外,陳穎漢指出,公司的蒸發器產品,目前已用於AI產業的邏輯測試儀領域,主要出貨給國內上市公司客戶,惟據了解,終端用戶是全球最大的AI晶片公司,且目前該國內重要客戶還送樣給另一家同樣是全球重量級的AI晶片客戶。市場法人揣測,宏碩蒸發器首家用戶是NVIDIA,而送樣中的則是超微(AMD),市場法人預期,在打入AI供應鏈後,將有助該公司2024年營運表現。

  • 圍堵恐再收緊 美商務部長:將對中祭更多出口管制

     近日美國商務部長雷蒙多(Gina Raimondo)強調中國是最大威脅,並點名AI晶片龍頭輝達(NVIDIA)繞道禁令為中國供貨,使已經層層加碼的美國出口管制措施再現收緊預期。雷蒙多5日預告,儘管商業領域存在擔憂,但美國還將對中國祭出更多出口管制措施。  美媒CNBC在5日報導,雷蒙多表示,儘管工商業界尋求釐清這一條防止中國技術越過的門檻(a clear line in the sand),「但事實上,技術在變化,中國在變化,美國必須跟上」。  雷蒙多指出,正考慮對最複雜的人工智慧及其衍生的所有產品,以及生物技術和量子計算等領域,研議相關管制措施。她認為,美國完全阻止中國的技術發展是不實際的想法,目標是減慢中國發展速度,防止其接觸到最複雜、最尖端的人工智慧晶片。  中美科技戰延燒多年,美國商務部2022年10月實施全面出口管制,收緊美國企業向中國出口部分先進半導體製造設備和技術,並拉攏日本、荷蘭等跟進圍堵。  雷蒙多2日出席雷根國防論壇時向企業界喊話,中國是美國最大威脅而非朋友,企業不應為短期收入犧牲國安,並直指輝達調整規格繞道禁令適得其反,美國商務部隔日就將出手管控。此前傳出,輝達替代H800特供中國市場的數款晶片原擬11月公布,但遲至今日仍未見相關產品現身。  雷蒙多向CNBC透露,美國商務部正與輝達保持聯繫,輝達立場清晰,並不希望違反美國的出口管制。而官方立場是,向中國出售晶片無妨,但禁止向其出售最先進的人工智慧晶片。  雷蒙多形容出口管制是「大膽的行動,同時也是必要的」,半導體具有強大的能力,不能落入錯誤用途之中。美方數度重申,對於高階晶片等科技管制措施,是為了限制中國軍事能力。

  • 黃仁勳破1兆身家!他自爆每天醒來害怕1事:不堪內幕曝光

    全球AI晶片巨頭輝達(Nvidia)股價今年暴漲逾200% ,儘管市值高達1.19兆美元(約台幣37兆元),執行長兼創辦人黃仁勳坦言,他每天早上醒來,仍擔心自己的晶片帝國可能會倒閉,原因是他創業時經歷很多嚴酷考驗,好幾次公司差點瀕臨關門命運。 Business Insider報導,黃仁勳日前出席紐約時報舉辦的DealBook峰會,紐時專欄作家索爾金(Andrew Sorkin)請黃仁勳解釋為何他一直說,會盡一切努力避免公司倒閉,是否想傳達什麼呢? 黃仁勳回答說,輝達過去經歷過很多殘酷的考驗,尤其在1990年中期曾面臨破產命運,因此他擺脫不了公司可能無法繼續生存的陰影。 他提到,「當你從無到有創立一家公司,也經歷過真正的逆境,並且好幾次公司差點倒閉,那種生死交關的擔憂會一直伴隨著你。」 黃仁勳坦言,他每天早上醒來,並不是帶著自豪與自信起床,而是感到惶惶不安,因為他憂慮一手打造的晶片帝國可能陷入困境。 索爾金解讀黃仁勳內心「偏執多慮」的思惟,可能來自輝達面臨其他半導體企業的競爭,但黃仁勳不認為人們試圖讓他破產,他可能知道競爭者在做什麼,兩者是不一樣的,並稱「我生活在一個有點絕望,卻又帶點鼓舞的環境裡。」 然而,黃仁勳似乎因為倒閉的焦慮,驅動他努力讓輝達活下去。 他認為,在逆境之下,你會更加專注,當你更專注時,就能表現得更好。他更透露,喜歡活在那種即將滅亡的狀態,當他沉浸在這種情境下,反而會更全力以赴,拚出佳績。 事實上,黃仁勳在10月接受podcast節目訪問時表示,創辦輝達比他預期還要困難100萬倍,如果人生可以重來的話,他不會再創業。 黃仁勳認為,如果重回30歲不會想創辦輝達,但他也提到心中有某種難以形容的使命感,讓他不斷向前衝刺,「企業家的超能力面臨巨大的任務,不斷問自己到底有多難?時至今日仍說服自己這些挑戰並不困難。」

  • 《科技》AWS牽手NVIDIA 助攻生成式AI創新

    【時報記者任珮云台北報導】亞馬遜(Amazon)旗下Amazon Web Services(AWS)與NVIDIA於AWS re:Invent全球盛會上宣布擴大策略合作,將聯手推出先進基礎設施、軟體及服務,推動客戶在生成式AI(Generative AI)的創新。 NVIDIA與AWS將挹注NVIDIA與AWS技術的精華,包含NVIDIA新一代GPU、CPU與AI軟體的最新多節點系統,以及AWS的Nitro System先進虛擬化與安全平台、Elastic Fabric Adapter(EFA)互連介面和UltraCluster擴充服務,以提供理想的環境來訓練基礎模型與打造生成式AI應用。 雙方保持長久的合作關係,合力推動生成式AI時代。此次擴大合作為使用機器學習(ML)的先驅們提供所需的運算效能,協助發展最尖端的技術。 此次雙方合作將大幅加速所有產業應用生成式AI的發展,合作內容包括: 一、AWS成為第一家將配備多節點NVLink技術的NVIDIA GH200 Grace Hopper Superchip超級晶片導入雲端環境的雲端服務供應商。NVIDIA GH200 NVL32多節點平台運用NVIDIA NVLink與NVSwitch技術連結32個Grace Hopper Superchip超級晶片,組合成一個執行個體。此平台將以Amazon Elastic Compute Cloud(Amazon EC2)執行個體的型態上線營運,連結Amazon的強大網路(EFA),加上先進虛擬化(AWS Nitro System)與超大規模叢集(Amazon EC2 UltraClusters)的支援,讓共同客戶能擴充至數千顆GH200超級晶片的規模。 二、NVIDIA與AWS將聯手在AWS上推出NVIDIA DGX Cloud這項AI訓練即服務(AI-training-as-a-service)方案。此方案將是首個配置GH200 NVL32的DGX Cloud方案,為開發者提供單一執行個體中最多的共用記憶體。AWS雲端上運行的DGX Cloud將可加速含有超過1兆參數的尖端生成式AI與大型語言模型的訓練。 三、NVIDIA與AWS正合作推動Project Ceiba,聯手設計全球最快的GPU驅動AI超級電腦,配備GH200 NVL32與Amazon EFA互連技術的大規模系統由AWS代管,為NVIDIA研發團隊提供服務。這部開創先河的超級電腦配置16,384顆NVIDIA GH200超級晶片,能處理65 exaflops速度等級的AI運算,將推動NVIDIA進行全新生成式AI的創新。 四、AWS將再推出三款Amazon EC2執行個體:P5e執行個體配置NVIDIA H200 Tensor Core GPU,瞄準大規模與尖端生成式AI及HPC高效能運算工作負載;以及分別配置NVIDIA L4 GPU與NVIDIA L40S GPU的G6 與G6e執行個體,能運行包括AI微調、推論、繪圖、以及影片工作負載等廣泛應用。G6e執行個體特別適合用來開發3D工作流程、數位分身、以及其他使用NVIDIA Omniverse的應用,用來連結與打造各種生成式AI的3D應用。

  • 三大原廠 估下季完成HBM3e驗證

     TrendForce最新市場研究顯示,為了更妥善且健全供應鏈管理,輝達(NVIDIA)規劃加入更多高頻寬記憶體(HBM)供應商,其中,三星(Samsung)的HBM3(24GB)預期提早於今年12月在NVIDIA完成驗證。  而HBM3e進度,美光(Micron)已於今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士(SK hynix)已於今年8月中提供8hi(24GB)樣品、三星則於今年10月初提供8hi(24GB)樣品。  由於HBM驗證過程繁瑣,預計耗時兩個季度,TrendForce預期,最快在2023年底,可望取得部分廠商的HBM3e驗證結果,而三大原廠均預計於2024年第一季完成驗證。  值得注意的是,各原廠的HBM3e驗證結果,也將決定最終NVIDIA 2024年在HBM供應商的採購權重分配,目前驗證皆尚未完成,因此,2024年HBM整體採購量仍有待觀察。  展望2024年,觀察目前各AI晶片供應商的開案進度,NVIDIA 2023年的高階AI晶片(採用HBM)的既有產品為A100/A800以及H100/H800;2024年則將把產品組合(Product Portfolio)更細緻化的分類。  除了原上述型號之外,該公司也規劃推出使用6顆HBM3e的H200以及8顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的CPU與GPU,推出GH200以及GB200。  至於AMD與Intel產品規劃,AMD 2024年出貨主流為MI300系列,採用HBM3,下一代MI350將採用HBM3e,預計2024下半年開始進行HBM驗證,實際看到較明顯的產品放量(Ramp Up)時間預估應為2025年第一季。  以Intel Habana來看,2022下半年推出的Gaudi 2採用6顆HBM2e,2024年中預期在新型號Gaudi 3持續採取HBM2e,但將用量升級至8顆。  因此,TrendForce認為,NVIDIA在HBM規格、產品準備度(Readiness)及時間軸上,可望持續以領先的GPU規格,在AI晶片競局取得領先。

  • 《電零組》外資評價雙砍 台光電好受傷

    【時報記者張漢綺台北報導】儘管OAM和800G交換機中銅箔基板(CCL)含量增加,日系外資最新報告擔心台光電(2383)市佔率因上游原料供應吃緊及台灣產能受限,可能導致市佔率下滑,下調台光電評等至「中立」,本益比及目標價也同步下調,致使台光電今天盤中股價下跌近5%。 日系外資指出,Nvidia的HGX/DGX伺服器中,採用OAM-UBB架構,台光電及韓國斗山是僅有兩家獲得CCL資格的公司,預估台光電 是主要供應商(約100%份額),也是Nvidia AI伺服器的CCL供應商,我們擔心因上游原料供應吃緊及台灣產能受限,2024年下半年到2025年,台光電市佔率將流失至斗山,因此降低我們的市佔率預估,將Nvidia的HGX OAM/UBB CCL中的台光電比例從每年100%到2024年/2025年的90%/75%,我們也注意到Nvidia一直在積極推廣其CPU-GPU超級晶片(GH200/GB200)的MGX架構,由於沒有UBB,我們將2024年/2025年的UBB銷售預測下調8%/35%,以反應我們對2024年/2025年5%/23%假設GH200/GB200架構滲透率和市佔損失。 日系外資雖然維持台光電2023年營收及獲利預估,但將2024年/2025年獲利下調6.8%/3.1%,下調台光電評等至「中立」,本益比及目標價也同步下調,其中本益比由20.5倍降至19.5倍,目標價降至454.47元。

  • TrendForce:各原廠預期2024年第一季於NVIDIA完成HBM3e產品驗證

    據TrendForce最新HBM市場研究顯示,為了更妥善且健全的供應鏈管理,NVIDIA也規劃加入更多的HBM供應商,其中,三星(Samsung)的HBM3(24GB)預期於今年12月在NVIDIA完成驗證。 而HBM3e進度,依據時間軸排列,美光(Micron)已於今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士(SK hynix)已於今年8月中提供8hi(24GB)樣品、三星則於今年10月初提供8hi(24GB)樣品。

  • 財富50大AI企業 NVIDIA、OpenAI均上榜

    《財富》雜誌發布全球人工智慧創新者50強報告,包括NVIDIA、Google、IBM、OpenAI、Microsoft、META等美國科技強權,蘋果公司並未入選,中國公司僅百度上榜,台灣也沒有企業入榜。 外媒指出,微軟因為投資Open AI,因此在AI領域每投資1美元,就有3.5美元的回報。另有市調機構統計,今年在美國新創公司的投資中,每4美元就有1美元是投資給AI相關公司,現在美國已經有200家AI獨角獸公司。 談到這波AI風潮,始作俑者就是OpenAI推出的ChatGPT,讓消費者首度感受到AI的威力。《財富》表示,OpenAI的最新版本GPT-4 Turbo是迄今功能最強大的通用大語言基礎模型,購買ChatGPT Plus服務的付費用戶和API企業客戶都可以訪問。從寫代碼到寫劇本,GPT-4 Turbo什麼都會做,還能夠創建圖像,根據冰箱裡食物的照片倒推食譜,還可以使用越來越多的互聯網連接工具。 GPT-4另一版本加入了微軟的搜索引擎必應。OpenAI宏大的願景也順利募集到龐大規模的資金,其中僅微軟就提供了130億美元。不過該公司的創新也面臨審查,包括政府的審查、審查其技術的能力,以及該用哪些法規管理和控制。該公司還面臨很多侵犯版權和數據隱私洩露的訴訟。不管奧特曼和OpenAI團隊其他成員的最終結局如何,可以打賭全世界必會關注。 而專門設計GPU,提供AI運算的NVIDIA,則是最紅的AI公司。《財富》表示,沒有哪家公司像NVIDIA一樣順利乘上人工智慧的東風。NVIDIA是人工智慧硬體領域的霸主,其圖形處理單元(GPU)晶片對大多數頂級人工智慧模型訓練至關重要(搜索巨頭谷歌的模型除外;其數據中心大多使用自家晶片。) 作為重要的人工智慧公司,截至2023年11月2日,NVIDIA的股票在今年已經驚人地飆升289%。NVIDIA旗下還有廣受歡迎且支持全面的CUDA軟體系統,開發人員可以相對容易地對GPU編程。其晶片性能相當強勁,市場份額迅速壯大,其他晶片製造商只能在後面費力追趕。 雖然NVIDIA最知名的業務是晶片,但近20年來該公司一直投資人工智慧軟體,僅過去十年就在研發上花費了300億美元。NVIDIA開始直接向企業客戶提供自己的人工智慧模型和人工智慧雲服務,導致與一些最大客戶,比如微軟Azure等「超大規模」雲提供商展開正面競爭。NVIDIA針對人工智慧和生物技術推出了兩項大語言模型雲服務,開發者能夠使用其大語言模型創建內容。

  • 《科技》AI浪潮滾滾來 HBM3e產品驗證估下季完成、HBM4拚2026年推出

    【時報記者葉時安台北報導】據TrendForce最新HBM(高頻寬記憶體)市場研究顯示,為了更妥善且健全的供應鏈管理,NVIDIA也規畫加入更多的HBM供應商,其中三星(Samsung)的HBM3(24GB)預期於今年12月在NVIDIA完成驗證。而HBM3e進度依據時間軸排列如下表所示,美光(Micron)已於今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士(SK hynix)已於今年8月中提供8hi(24GB)樣品、三星則於今年10月初提供8hi(24GB)樣品。 由於HBM驗證過程繁瑣,預計耗時兩個季度,因此,TrendForce預期,最快在2023年底可望取得部分廠商的HBM3e驗證結果,而三大原廠均預計於2024年第一季完成驗證。值得注意的是,各原廠的HBM3e驗證結果,也將決定最終NVIDIA 2024年在HBM供應商的採購權重分配,然目前驗證皆尚未完成,因此2024年HBM整體採購量仍有待觀察。  NVIDIA持續擴展AI晶片產品,在高階晶片市場擁最大優勢。展望2024年,觀察目前各AI晶片供應商的開案進度,NVIDIA 2023年的高階AI晶片(採用HBM)的既有產品為A100/A800以及H100/H800;2024年則將把產品組合(Product Portfolio)更細緻化的分類。除了原上述型號外,更再推出使用6顆HBM3e的H200以及8顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的CPU與GPU,推出GH200以及GB200。  相比同時期的AMD與Intel產品規畫,AMD 2024年出貨主流為MI300系列,採用HBM3,下一代MI350將採用HBM3e,預計2024下半年開始進行HBM驗證,實際看到較明顯的產品放量(Ramp Up)時間預估應為2025年第一季。  以Intel Habana來看,2022下半年推出的Gaudi 2採用6顆HBM2e,2024年中預期在新型號Gaudi 3持續採取HBM2e,但將用量升級至8顆。因此,TrendForce認為,NVIDIA在HBM規格、產品準備度(Readiness)及時間軸上,可望持續以領先的GPU規格,在AI晶片競局取得領先。  除了HBM3與HBM3e外,據TrendForce了解,HBM4預計規畫於2026年推出,目前包含NVIDIA以及其他CSP(雲端業者)在未來的產品應用上,規格和效能將更優化。受到規格更往高速發展帶動,將首次看到HBM最底層的Logic die(又名Base die)採用12nm製程wafer,該部分將由晶圓代工廠提供,使得單顆HBM產品需要結合晶圓代工廠與記憶體廠的合作。  再者,隨著客戶對運算效能要求的提升,HBM4在堆疊的層數上,除了現有的12hi(12層)外,也將再往16hi(16層)發展,更高層數也預估帶動新堆疊方式hybrid bonding的需求。HBM4 12hi產品將於2026年推出;而16hi產品則預計於2027年問世。  最後,TrendForce也觀察到,針對HBM4,各買方也開始啟動客製化要求,除了HBM可能不再僅是排列在SoC主晶片旁邊,亦有部分討論轉向堆疊在SoC主晶片之上。雖然目前所有選項仍在討論可行性中,並尚未定案,但TrendForce認為,未來HBM產業將轉為更客製化的角度發展,相比其他DRAM產品,在定價及設計上,更加擺脫Commodity DRAM的框架,呈現特定化的生產。

  • 美晶片新禁令讓輝達完蛋?美媒分析出乎意料

    美國持續加碼對大陸晶片禁令,外界擔憂輝達的展望蒙上隱憂,但華爾街日報撰文指出,輝達受惠的人工智慧(AI)熱潮可望超越地緣政治阻力。 報導指出,輝達在ChatGPT等生成式AI技術所必需的晶片領域居領先地位,輝達有許多跨國科技巨擘撐腰,科技巨頭包括微軟、Google、亞馬遜和Facebook母公司Meta Platforms等,正投資數以十億美元為自家數據中心配備生成式AI能力,而這對輝達來說相當正向。 預期截至2025年1月的會計年度,輝達數據中心收入將高達650億美元,比英特爾和超微等競爭對手同一時期的數據中心業務銷售總和,高出1倍以上。 輝達看好第四季營收將達到200億美元,年增231%,雖然大陸營收因晶片禁令恐大幅下滑,但看好在其他地區的銷售將強勁成長,能抵銷大陸等地的銷售下滑。

  • 黃仁勳自爆開Toyota Supra下場太驚悚 身價破兆改開這款車原因曝光

    AI晶片教父、輝達(NVIDIA)創辦人黃仁勳身價破兆台幣,外界好奇他究竟開哪款車代步?黃仁勳接受Podcast節目訪問時透露,他最難忘的車是Toyota Supra,也是他這輩子重要回憶之一,現在出於安全考量,大部分由司機接送,最新座駕是賓士(Mercedes-Benz)EQS電動車,因為這輛車搭載自家晶片。 黃仁勳上(10)月接受知名科技Podcast節目《Acquired》專訪時提到,最難忘的愛車是Toyota Supra,這輛車是他和妻子Lori在某年聖誕節訂婚所買的車,訂婚當天他開著全新Supra回家,沒想到途中發生嚴重意外,整輛車幾乎撞爛,他說當時生命差點在那輛Supra上畫下句點。 而黃仁勳現在身為輝達創辦人兼執行長,他表示基於安全理由,幾乎不被允許自己開車,目前接送他到處趴趴走的最新座駕是賓士EQS純電豪華轎車,他還透露,選擇EQS是因為採用輝達晶片,看得出來,黃仁勳力挺自家晶片產品。 事實上,輝達與賓士攜手合作,構建完全可編程和可升級的自動駕駛系統。NVIDIA DRIVE Orin系統級晶片就是車輛的「駕駛大腦」,每秒可執行254兆運算,可對車輛整套感測器資料進行處理。 自2024年起,全新的系統與架構將用於Mercedes-Benz的下一代所有車款上,使其具備可升級的自動駕駛功能,未來也將出現更多安全又便利的應用,消費者也將能在汽車的使用年限內,透過無線更新(over-the-air,OTA)來購買和新增功能、軟體應用程式及訂閱服務。

  • 《盤前掃瞄-國外消息》美股全收紅;道瓊漲0.5%最多

    【時報-台北電】國外消息:  1.美股全收紅,道瓊漲0.5%最多  美股三大指數悉數走高,其中以道瓊漲幅最大。個股方面,收漲1.28%的微軟,股價盤中與收盤均創歷史新高。至於大跌2.46%的NVIDIA雖然季報亮眼,但市場擔心將來營收可能會受到衝擊,因為美國對中國大陸祭出嚴格的晶片禁令。另外,NVIDIA股價今年迄今已暴漲近2.5倍,不少投資人選擇先獲利了結再說。最新的經濟數據顯示,美國上周初次請領就業補助人數低於預期、但10月耐久財訂單卻創兩年以來最大跌幅。美股最新收盤價,道瓊漲184.74點或0.53%,收35273.03點。那斯達克漲65.88點或0.46%,收14265.86點。標普500漲18.43點或0.41%,收4556.62點。 2.SHEIN傳秘密遞表赴美IPO  電商重頭戲「雙11」剛結束,大陸快時尚跨境電商SHEIN傳出即將赴美IPO的消息。陸媒報導,SHEIN尋求估值可能高達900億美元,並已有投資人宣稱收到路演邀請,SHEIN近日秘密遞交赴美上市申請引發關注,距離上市敲鐘時間可能只剩一個月。  3.高房價高利率夾擊,美10月成屋銷售暴跌  美國10月成屋銷售暴跌至13年新低紀錄,凸顯盤旋在高檔的房價和房貸利率,持續打擊美國房市。根據全美不動產經紀人協會(NAR)21日公布,10月成屋銷售月減4.1%,經季調後的年率達379萬戶,創下2010年8月以來最低紀錄,縮幅遠遠大於經濟學家預期的月減1.5%。與去年同期相比,10月成屋銷售降幅高達14.6%。  4.能源生產國減碳,被批喊假的  聯合國環境署(UNEP)日前發布報告指出,全球前20大能源生產國計畫到2030年讓化石燃料開採量倍增,批評此舉會破壞達成氣候目標。  5.福特重啟密州EV電池廠計畫  福特汽車宣布重啟密西根州電動車電池廠計畫,但產能、人力需求和投資規模都較原先規劃縮減,主要理由是電動車需求前景不如預期。

  • 《科技》HPE攜手NVIDIA 推加速AI訓練整合方案

    【時報記者林資傑台北報導】HPE慧與科技宣布推出專為大型企業、研究機構和政府機構所設計的生成式人工智慧(AI)超級運算解決方案,透過使用私有資料集加速AI模型訓練和調校。藉由與輝達(NVIDIA)擴大技術支援,可將系統效能提升2~3倍,預計12月將在超過30個國家推出。 HPE推出的生成式AI解決方案,包括一個軟體套件,讓客戶能訓練和調校模型,以及開發AI應用程式,還包括液冷式超級電腦、加速運算、網路、儲存和服務。透過提供前所未有的規模與效能,以滿足大型AI工作負載需求,協助企業加速實現AI價值。 此生成式AI的超級運算解決方案關鍵元件,為用於建立AI應用程式、客製化預建模型及開發和修改程式碼的軟體工具,與採用世上最快超級電腦強大架構的HPE Cray超級運算技術進行整合,並搭載NVIDIA Grace Hopper GH200超級晶片支援。 HPE執行副總裁暨HPC、AI和實驗室部門總經理Justin Hotard表示,為推動創新並於研究中取得重大突破,全球領先的公司和研究機構都在訓練與調校AI模型。然而,要有效率的實現目標,需要專門為此打造的一套解決方案 Justin Hotard指出,為支援生成式AI,組織需要使用能提供超級電腦專用效能與規模的永續性解決方案,以支援AI模型訓練。HPE很高興能與NVIDIA擴大合作,提供AI原生整合方案,協助加速AI模型訓練並取得成果。 NVIDIA超大規模與高效能運算部門副總裁Ian Buck表示,生成式AI正在改變科學發展和每個產業。HPE攜手NVIDIA推出搭載NVIDIA GH200 Grace Hopper超級晶片的AI訓練和模擬整合解決方案,為客戶實現生成式AI專案所需效能。

  • 輝達認了這件事 盤後下殺!專家連發3大警告…1條已成真

    AI晶片霸主輝達(Nvidia)今公布上季財報、本季財測,均優於華爾街預期,但盤後股價下跌逾1%,主要是美國出口禁令恐對大陸晶片銷售蒙上陰影。知名半導體分析師陸行之提醒投資人留意後續三件事,包括輝達營收報喜股價已反應、明年第1季營收是否季減、客戶會不會採用對手超微的產品。 受惠AI需求暴增,輝達第3季財報營收年增206%至181.2億美元,優於市場預期,創下歷史新高;淨利92.4億美元,較去年同期淨利6.8億元,呈現爆炸式成長;經調整後每股盈餘(EPS)4.02美元,年增593%,優於市場預期3.37美元。 展望本季(第4季),輝達預測營收高達200億美元,年增近231%,驚人表現強壓分析師預估178.6億美元,但財務長Colette Kress示警,受到美國擴大出口管制干擾,本季大陸銷售額將大幅下滑,所幸其他地區的強勁成長應可抵銷這部分衝擊。 陸行之在臉書發文指出,沒有讓投資人失望,輝達又繼續給投資人驚喜的數字,但分析師看到短期獲利上修的空間越來越小,股價反應就是好消息早知道,以後走一步算一步的概念,並分享以下幾項重點: 一、第3季財報、第4季財測,不論是營收、獲利率或是EPS都高於分析師預期,主要還是AI GPU賣的超標。 二、庫存月數季減5%至3.04個月,年減37%,明顯優於設計行業的4.04個月及IDM行業的5.28個月。 三、2023年、2024年與2025年的出貨目標持穩,1.2mn/3mn/5.3mn AI GPU出貨,出貨數字預測不變。 陸行之也提醒投資人留意輝達三大後續重點,包括營收報喜已經反應在股價上;若無法賣中高階AI GPU到大陸,明年第1季營收是不是會季減;產品加了9x的成本賣,客戶受的了嗎,會不會加速採用AMD MI300X, 還是自行設計?

  • AI需求強 技嘉、微星帶勁

     輝達(NVIDIA)即將公布財報,台系供應鏈21日股價提前上演慶祝行情,法人指出,AI伺服器出貨動能正向,有利技嘉(2376)、微星(2377)等板卡合作廠商業績向上,後市成長可期。  本國大型投顧法人看好,AI伺服器及AI PC是未來發展重心,明年起將進一步挹注供應鏈業績,尤其AI伺服器需求強勁,為目前科技產品一枝獨秀,下游品牌廠紛紛投入。其中,技嘉在HPC至AI伺服器均供客戶最佳解決方案,且產品線較廣,具備領先優勢。  此外,技嘉在NVIDIA早期發展AI即加入設計團隊,取得A100、H100 GPU相對容易,目前產品供不應求,預估公司伺服器占比將由今年27%逐年提升至34%、37%,達雙位數成長,且AI占伺服器比重明、後年將超越5成以上,為未來主要成長來源。  微星將投入資源發展生成式AI的A100、H100,市場預估2024年伺服器業務將成長2成,其中AI占伺服器占比達10%。另微星今年筆電已部分導入AI應用,例如商用及創作者筆電,應用在工作或玩遊戲,可透過AI進行不同設定,產出不同的場景或圖像,明年推出4080/4090推論功能的商用筆電,逐步貢獻營收。  此外,NVIDIA每隔兩年一次推出大改款GPU,有助於電競NB需求成長,預期今、明年皆維持向上成長態勢。微星的電競產品營收比重超過70%,在NVIDIA新GPU推出下受惠程度最大。展望後市,整體PC市場能夠溫和回溫,為下半年的換機潮帶來正面效益。

上市Top5

上漲
下跌
漲停
跌停

上櫃Top5

上漲
下跌
漲停
跌停

主要市場指數

回到頁首發表意見