英偉達擬發布全新「推理晶片」 棄用昂貴高頻寬記憶體 迎戰Google與Meta夾擊
發佈時間:16:38 2026-03-14 HKT
英國《金融時報》引述消息報道,人工智能巨頭英偉達(美:NVDA,Nvidia)正準備在即將舉行的「GTC 2026」年度開發者大會上,發布一款專為加速AI回應而設計的全新晶片,此舉意味Nvidia將打破長期以來以單一處理器應對多種任務的策略。消息指,這款新晶片將專注於AI「推理」(Inference)階段(即運行而非訓練模型),亦是Nvidia去年12月斥資200億美元(約1,566億港元)收購初創公司Groq核心團隊及技術後,首款亮相的新產品。
首推Groq技術晶片 專攻AI推理市場
報道指,Nvidia計劃推出這款基於Groq技術的語言處理器(LPU),與即將推出的旗艦級Vera Rubin GPU協同工作,旨在迎擊競爭對手及應對新型的AI應用。
Nvidia目前正面臨初創公司及Google等大客戶自研AI晶片的挑戰;競爭對手Meta日前亦宣布推出新一代專為推理任務而設的四款處理器。有矽谷創投基金投資者直言:「我們正進入一個不再由英偉達獨霸的有趣階段。」
報道指,過去三年,英偉達龐大的市值主要得益於其GPU成為生成式AI產業的支柱,用於訓練如OpenAI的ChatGPT等模型。
Nvidia行政總裁黃仁勳過往一直主張,單一系統既可用於訓練新AI模型,也可以用於運行基於這些模型建構的聊天機器人和編碼工具。儘管各大型科技巨頭已投入數以千億美元部署這些系統,但同時亦投資研發自家的專用AI晶片。另外,隨AI工具的日益複雜,例如智能體,或迫使黃仁勳放棄「單一處理器應對多種任務」的理念。
棄用昂貴HBM 改用SRAM降成本
據悉,英偉達現有的Blackwell及即將推出的Rubin系統,均高度依賴價格高昂且供應短缺的高頻寬記憶體(HBM)。不過,這款融合Groq技術的新晶片將一改傳統,改用靜態隨機存取記憶體(SRAM),而非HBM所使用的動態隨機存取記憶體(DRAM)。由於SRAM在市場上的供應相對充裕,加上技術特性上更適合用於加速AI的「推理」任務,料可大幅提升運算效率及控制成本。
美銀料2030年推理開支佔比達75%
隨著AI技術日益普及,市場對推理運算的需求正急速增長。美國銀行分析師估計,到2030年,當全球AI數據中心市場規模達到約1.2萬億美元(約9.36萬億港元)時,推理應用的相關開支將佔整體支出的75%,遠高於去年的約50%,反映該領域勢將成為各大科企的兵家必爭之地。

















