DeepSeek論文提新框架 減低訓練AI能源需求 傳最快農曆新年期間登場
更新時間:09:59 2026-01-02 HKT
發佈時間:09:59 2026-01-02 HKT
發佈時間:09:59 2026-01-02 HKT
據彭博報道,中國AI初創企業DeepSeek發佈最新論文,提出一種名為「流形約束超連接」(Manifold-Constrained Hyper-Connections)的全新框架,該設計旨在提升AI系統擴展性,同時降低訓練AI系統的計算和能源需求。
新架構減能耗 提升訓練穩定性
DeepSeek透過開放儲存庫arXiv及開源平台Hugging Face發佈該論文,由創辦人梁文鋒聯同18名研究人員共同撰寫。論文指出,新框架針對AI訓練不穩定及擴展性有限等挑戰,融入「嚴格的基礎設施優化」以確保效率。團隊在30億至270億參數的模型上進行測試,並稱該技術有望推動基礎模型的進化。
市場預計,DeepSeek即將發佈代號「R2」的旗艦模型,或在今年2月的農曆新年期間推出。彭博分析指,雖然Google的Gemini 3近期表現強勢,但DeepSeek即將推出的「R2」仍有潛力再次顛覆全球AI行業。目前在LiveBench全球大型語言模型(LLM)排名中,中國的低成本模型已佔據前15名中的兩席。

















