美团开源「龙猫」大模型 性能追平DeepSeek V3.1

更新时间:14:05 2025-08-31 HKT
发布时间:14:05 2025-08-31 HKT

据内媒报道,美团(3690)开源了「龙猫」大模型(LongCat-Flash),性能上亦追平了DeepSeek V3.1等模型。龙猫是一个拥有5,600亿参数的混合专家(MoE)模型,最创新是其「零计算」专家机制,即模型可判断输入内容中不同部份的重要性,并将计算量较小任务分配给「零计算」专家,从而令模型处理每个词元(token)时,仅需动态启动186亿至313亿参数,实现性能与效率的平衡。

拥高速推理 极低营运成本

报道指出,在大规模MoE模型中,不同「专家」模组之间的通讯延迟往往是效能瓶颈,「龙猫」大模型则引进了快速连结混合专家模型(ScMoE), 透过引入一个快捷连接,有效地扩大运算和通讯的重叠窗口,显著提升了训练和推理的吞吐量,让模型的反应速度更快。

报道提到,「龙猫」大模型拥有极高的推理速度,每秒速度超过100字元;极低的营运成本,每处理100万输出词元成本仅为0.7美元;以及强大的综合能力,支援128k的长文本上下文,并在程式码、推理和工具调用等多个方面展现出与业界领先模型相媲美的竞争力。

对话和推理能力非常优秀

该模型不仅在多个方面与业界顶尖的开源模型旗鼓相当,甚至在某些特定能力上实现了超越,当中在ArenaHard-V2该项得分为86.5 ,超过了DeepSeek V3.1,并与Qwen3 MoE(88.2分)非常接近,说明其对话和推理能力非常优秀。

此外,该模型在IFEval及COLLIE这两个专门评估模型理解并执行复杂指令的基准中,也超越了DeepSeek V3.1及名列前茅,其中在COLLIE测试中更是在所有参与对比模型中排名第一。目前「龙猫」模型已发布在Hugging Face和Githiub社区,并遵循MIT许可协议。