2025年年底,本以为全球大模型的话题中心已经被Google牢牢抢走。Gemini 3 Pro上线后,在一系列权威评测中压制所有开源模型,闭源阵营重新站上技术制高点,“开源是不是到头了”“Scaling Law是不是撞墙了”的声音在业内此起彼伏,开源社区一度弥漫出一种隐隐的低气压。
就在这种节点上,DeepSeek没有选择退到边线观望,而是把牌一口气摊在桌面上。12月1日,它直接抛出两款新模型:在推理能力上对标GPT-5、整体表现逼近Gemini 3 Pro的DeepSeek-V3.2,以及在数学、逻辑和复杂多轮工具调用上表现异常突出的Speciale版本。这既是一次集中秀肌肉,也是对“闭源新天花板”的正面回应——而且是在算力资源并不占优的前提下。
换句话说,这已经不是一次常规意义上的“版本升级”,而更像是DeepSeek对“后Scaling时代”路线的一次公开下注:当继续简单堆规模不再是唯一答案,如何凭架构和训练方式把差距补回来?如何用更少的token,跑出更像“智能体”、而不是“聊天补全器”的行为?以及——为何要在开源阵营中第一个把Agent抬到战略高度?
围绕这些问题,DeepSeek给出了一套相对完整的技术路径和系统叙事。
在大模型的第一阵营里,开源一直被认为“最多追平,难以对抗”。这一次,DeepSeek-V3.2交出来的成绩单,已经不太像传统意义上的追赶者。
按照DeepSeek对外披露的数据,V3.2在公开推理类评测中的整体表现,已经可以与GPT-5同场对比,仅在少数项目上略逊于Gemini 3 Pro。在多项关键指标上,它稳定超越Kimi-K2-Thinking,刷新国内开源模型推理能力的最好纪录。在数学计算、复杂逻辑、多步推演等任务上,V3.2已经具备和领先闭源模型掰手腕的实力,基本站到了“全球第二梯队”的前排位置。






