开源大模型领域迎来重磅突破!DeepSeek 推理能力追平 GPT-5-High,高算力版更是拿下 IMO 和 IOI 金牌,核心得益于 DSA 稀疏注意力机制、超预训练 10% 的后训练投入及大规模合成数据三大创新。这篇报告解读深度拆解其技术逻辑与性能表现,揭秘开源模型的突围路径。

这是一篇报告解读,原文是《DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models》

有个 Trip Planning 的例子从杭州出发的三天旅行,要求不重复城市/酒店/餐厅/景点,第二天的预算有复杂的条件约束…
任务很难解,但验证很简单——只要检查所有约束是否满足
这类「难解易验」的任务特别适合 RL
合成数据真的有用吗?论文做了消融实验用 V3.2-SFT 只在合成的通用智能体数据上做 RL,测试在 Tau2Bench、MCP-Mark、MCP-Universe 上的效果
结果是:显著提升
作为对照,只在代码和搜索环境上做 RL,这三个 benchmark 上没有提升
简而言之,这么做,确实带来了泛化能力
Thinking in Tool-Use让推理和工具调用融合,是 v3.2 在工程上的关键设计
DeepSeek-R1 证明了「thinking」对解决复杂问题很有帮助
但 R1 的策略是:第二轮消息到来时,丢弃之前的推理内容
这在工具调用场景下很浪费——每次工具返回结果,模型都要重新推理一遍

这个是 DeepSeek-V3.2-Speciale 的竞赛成绩
其他:上下文管理策略搜索智能体场景有个问题:经常撞到 128K 的上下文限制
DeepSeek 试了几种策略:
Summary:超限后总结轨迹,重新开始Discard-75%:丢弃前 75% 的工具调用历史Discard-all:丢弃所有工具调用历史(类似 Anthropic 的 new context tool)Parallel-fewest-step:并行采样多个轨迹,选步数最少的
结果有点反直觉:最简单的 Discard-all 效果最好,BrowseComp 从 53.4% 提升到 67.6%Summary 效率最低,虽然也能提升性能
还差什么DeepSeek 团队坦诚说了三个局限:
1. 世界知识不够丰富训练算力有限,知识广度不如 Gemini-3.0-Pro计划未来扩大预训练规模
2. Token 效率低达到同样输出质量,需要生成更多 token需要优化推理链的「智能密度」这个上文提了
3. 最难的任务还有差距在最顶尖的复杂任务上,和 Gemini-3.0-Pro 还有差距
我觉得吧,这三个局限其实指向同一个问题:算力预训练算力不够,知识就不够广后训练算力不够,token 效率就上不去基础模型能力不够,最难的任务就做不好
但反过来说,DeepSeek 在有限算力下能做到这个程度,也或许说明…技术路线是对的?总结
这篇论文,大致说了这三件事儿• DSA 解决了效率问题,让大规模后训练成为可能• 大规模后训练,带来了更高的训练回报• 大规模合成数据,让智能体能力的泛化成为可能
三件事串起来,让 DeepSeek v3.2,在推理能力上追平了 GPT-5
本文由人人都是产品经理作者【赛博禅心】,微信公众号:【赛博禅心】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263552 电子证书1157 电子名片68 自媒体91237