(文/陈济深 编辑/吕栋)
12月1日,DeepSeek发布两个正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。其中DeepSeek-V3.2是两个月前DeepSeek-V3.2-Exp的正式版,做到了平衡推理能力与输出长度,适合日常使用,例如问答场景,并强化了Agent能力。官方网页端、App和API均已更新为正式版DeepSeek-V3.2。
Speciale版本是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。目标是将开源模型的推理能力推向极致,探索模型能力的边界。目前仅以临时API服务形式开放,以供社区评测与研究。
回顾过去一年,开源大模型生态在年初DeepSeek惊艳亮相之后集体爆发,阿里云的Qwen系列不断刷新榜单,月之暗面的Kimi,智谱的GLM和MiniMax的M系列模型均在发布后收获了国内外的好评并取得了超越当时顶级闭源模型的开源成果。这一波群雄并起的浪潮,将“开源追平乃至超越闭源”从一句口号变成了让闭源厂商感到压力的现实。
然而,随着Google Gemini3.0的强势发布,凭借庞大的的算力和数据,Gemini 3.0 Pro重新定义了什么是“全球最强”。其强劲的性能甚至让同为竞争对手的马斯克(xAI)和奥特曼(OpenAI)纷纷点赞,开源和闭源似乎不复存在的差距瞬间又变成了一道新的天花板。
与此同时,OpenAI前首席科学家Ilya Sutskever近期新万博体育:“Scaling Law撞墙”的论断,更是给后来者泼了一盆冷水:如果连单纯堆算力都开始失效,那么资源本就处于劣势的开源社区,难道注定只能止步于此?
在“前有算力新霸权,后有理论新瓶颈”的至暗时刻,作为开源先锋的DeepSeek再次用新模型给出了一个掷地有声的回应:开源的崛起不会因此中断。以DeepSeek为代表的国产开源模型厂商依然找到了在算力受限的情况下,通过后训练和架构创新来弥补差距,甚至实现反超闭源顶尖模型的解法。
而在这种背景下DeepSeek能做到行业头部大模型也意味着,DeepSeek在未来一旦开始堆算力,不仅有望成为全球顶尖的语言大模型,甚至可以成为一个多模态的最强全球模型。
实用主义与极致探索
此次DeepSeek更新的两款模型有着截然不同的定位,分别指向了“工业落地”与“科学探索”两个极端。
作为9月底发布的实验版V3.2-Exp的正式继任者,标准版DeepSeek-V3.2的目标非常明确,那就是平衡推理能力与输出长度。
在公开的推理测试中,V3.2已达到GPT-5的水平,仅略低于Google最新的Gemini 3 Pro。相比同类产品Kimi-K2-Thinking,V3.2得益于严格的训练策略,其输出长度大幅降低,显著减少了计算开销与用户等待时间,真正做到了适合问答、通用智能体等日常场景的“话少活好”。
而此次发布的重头戏DeepSeek-V3.2-Speciale,则是一个为了“赢”而生的偏科天才。
作为V3.2的“长思考增强版”,Speciale结合了DeepSeek-Math-V2的定理证明能力,具备出色的指令跟随、严谨的数学证明与逻辑验证能力。它的目标是将开源模型的推理能力推向极致。
数据显示,Speciale在多个推理基准测试中超越了Google最先进的Gemini3 Pro。在美国数学邀请赛(AIME)、哈佛MIT数学竞赛(HMMT)、国际奥林匹克数学竞赛(IMO)等测试中,Speciale全面超越对手。不过在编程与理工科博士生测试中,Speciale仍略逊于Google的顶级模型。
算法层面的极限突围
在预训练算力不如Google的客观现实下,DeepSeek依然能够追上第一梯队,依靠的是其在架构层面“榨干”硬件性能的极致创新。
面对长文本计算量的指数级爆炸,DeepSeek没有选择硬抗,而是设计了DSA(DeepSeek稀疏注意力)机制。
这套机制就像一个挑剔的图书管理员,通过“闪电索引器”只检索最关键的信息,而不是把所有书都翻一遍。在经过V3.2-Exp两个月的实验后,DeepSeek确认了DSA的有效性,在不牺牲长上下文性能的前提下,成功将计算复杂度大幅降低。这种设计为V3.2在智能体场景中成为一种极具成本效益的替代方案打下了物理基础。
V3.2的核心亮点之一是其提到的“Thinking in Tool-Use”(思考型工具调用)。这实际上是AI Agent领域更为通用的技术术语——“Interleaved Thinking”(交错思维链)的一次重量级背书。
DeepSeek并不是业内首个提出该思路的模型厂商,同为国产大模型企业的MiniMax早在其文本模型M2研发阶段时,就已经敏锐地捕捉到了这一技术路径,且是首个将Interleaved Thinking推向行业标准的公司。
随后,月之暗面的Kimi K2 Thinking也基于“模型即Agent”的理念,通过端到端训练实现了推理与工具调用的自然融合。
Interleaved Thinking对Agent究竟意味着什么?它不仅仅是简单的“边想边做”,而是在显式推理(Reasoning)与工具调用(Tool Use)之间交替进行,并将推理结果作为“状态”持续带入后续步骤。
从技术本质上看,它将冗长、重度依赖工具的任务转化为稳定的“计划→行动→反思”循环;而其核心价值在于,通过复用假设、约束与部分结论(而不是每次从头推导),极大地减少了多轮任务中的“状态漂移”与重复性错误,确保每一步行动都基于最新的证据(Evidence)。
这一技术听着并不复杂,实际实现的难度并不简单,月之暗面联合创始人吴育昕在K2模型发布后曾在一次Ask Me Anything活动中坦言,支持“思考—工具—思考—工具”的交错模式是大模型中相对较新的行为,需要大量工作才能做好。
而DeepSeekV3.2的发布,标志着这一极具挑战的技术已不再是单一厂商的特色探索,而是正式成为了高性能模型的“标配”,从“先锋探索”走向了“行业共识”。
为何DeepSeek罕见押注Agent?
值得注意的是,在最新的技术报告中,DeepSeek罕见地将“Agent能力”提升到了与“推理能力”同等重要的战略位置。
从早期的Coder工具调用到如今的Thinking in Tool-Use,DeepSeek着重提及Agent本次不仅是功能的升级,更是对未来行业方向的预判。这背后并非简单的热点追逐,而是基于经济、数据与平台三个维度的深层逻辑。
从经济维度来看,过去一年行业发现了一个残酷的事实:仅靠聊天问答,商业价值难以规模化。
企业真正愿意付费的不是“更优美的回答”,而是“降本增效的行动”——自动生成报表、自动处理工单、自动写代码。
Agent给LLM装上了“眼睛+手+大脑”,使其从“对话式AI”进化为“动作式AI(Actionable AI)”,这才是真正能产生商业闭环的地方。
DeepSeek显然看到了这一点,试图通过Agent能力将模型从“聊天机器人”进化为真正的“数字劳动力”。
在数据层面,ScalingLaw遇到的瓶颈在Agent领域找到了突破口。
高质量的人类对话数据昂贵且有限,但Agent的任务轨迹(Trajectory)不同:它可以像DeepSeek此次构建的1,800个合成环境一样,通过自动化生成、判定和奖励(Reward),进行大规模的强化学习(RL)。
这意味着,Agent任务数据将成为未来最便宜、最可规模化的优质训练“燃料”。
而从平台逻辑的视角出发,大模型正在演变成调度工具、完成任务的通用操作系统。
未来的生态中,模型是内核,Agent是用户态程序,而插件则是工具。谁先占领了Agent的标准(如MCP、函数调用规范),谁就可能成为AI时代的Windows或iOS。DeepSeek发力智能体领域变意味着其思路已经从工具转变成基础设施提供商的转变。
如何缩小中外差距?
在DeepSeek最新的技术文档中,他们也毫不避讳的提到了一个观点:开源与闭源模型的差距,其实正在拉大。
DeepSeek表示,虽然推理模型的发布推动了整体性能的大幅跃升,但过去几个月中出现了明显的分化。闭源专有模型如Google、OpenAI、Anthropic的性能增长速度却显著更快,专有系统在复杂任务中展现出越来越强的优势。
DeepSeek认为,开源模型目前存在三个关键缺陷:首先是架构层面,对标准注意力机制的过度依赖严重制约了长序列处理的效率;其次在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了高难度任务的表现;最后在Agent领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署。
除了行业通病,DeepSeek也坦诚了自家的局限性。V3.2的世界知识广度仍落后于领先的专有模型,且为了达到Gemini3Pro的输出质量,V3.2通常需要生成新万博体育:的Token,导致效率较低。同时,在解决极其复杂的综合任务时,其表现仍不如前沿模型。
面对这些差距,DeepSeek给出了清晰的改进路线:计划在未来通过增加预训练计算量来填补知识空白,并专注于优化模型推理链的“智能密度”,提高效率,让模型学会“少说话、多办事”。
在海外社媒上,有网友评价DeepSeek此次发布是了不起的成就,认为匹配GPT-5和Gemini3 Pro的开源模型终于出现了,差距似乎正在消除。它不断证明,严谨的工程设计可以超越单纯的参数规模。
DeepSeek-V3.2的发布,给所有处于焦虑中的开源关注者打了一剂强心针。它证明了,让Sam Altman紧张、让Google炫耀的最强模型,并不是不可逾越的天堑。
模型发布后,DeepSeek研究员Zhibin Gou在X上发文:“如果Gemini-3证明了持续扩展预训练的可能性,DeepSeek-V3.2-Speciale则证明了在大规模上下文环境中强化学习的可扩展性。我们花了一年时间将DeepSeek-V3推向极限,得出的经验是:训练后的瓶颈需通过优化方法和数据来解决,而非仅等待更好的基础模型。”
他还补了一句:“持续扩大模型规模、数据量、上下文和强化学习。别让那些'遭遇瓶颈'的杂音阻挡你前进。”
这是DeepSeek团队少有的发声,而这一幕颇有意味,当行业在讨论Scaling Law是否撞墙时,DeepSeek用实打实的模型喊话,想证明Scaling没死,只是换了战场。
《bck体育app官网》,《Q8X2R7L1T4J5M9B6W3》新濠天地娱乐在线app
“和记娱乐开户网址”
188宝金博下载
……
12月02日
“世界杯买球平台叫什么”华为问界超越理想夺销冠
↓↓↓
12月02日,珠江流域应急响应级别提升至Ⅱ级 俯瞰北江景象 ,2020edf壴定发娱乐官网,英皇娱乐app链接,纬来体育下载地址,必定赢官网备用网站
12月02日,天津“世纪钟”进行修缮升级,银河国际官方app,bet9九州体育信誉,威尼斯人网站官网,AG8亚洲九游会
12月02日,2024年“读懂中国”国际会议:“在体育中读懂中国”专题论坛在广州举行,伟德体育bv1946,直营赌博游艺平台,火狐体育官网在线网站,菲律宾亚星开户
12月02日|《黑神话:悟空》全球销量破千万套 巧译中华文化受好评|优博在哪里玩|必威体育app|杏彩网页版登录注册|bb新体育app
12月02日|外媒:全球港口面临重塑 中国海运居领先地位|mg电子高爆平台|必威网页版|百老汇体育官方app|新甫京娱乐娱城av
12月02日|巴西男子劫持公交车幸无人员伤亡|永盛国际彩票平台|BOB网址登录|ag亚美电脑端|jdb电子游戏平台注册……
12月02日,2025北京新年演出季启动 19场精品演出辞旧迎新,乐虎国际入口,亚博AG真人,三晋娱乐游戏,体探足球即时比分
12月02日,王鹏:勇攀科研高峰 把青春融入强军事业,爱博真人投注,永利24在线网址,皇冠系列彩票平台,金沙扑克
12月02日|“相机人”张义:将游客身影定格在“尔滨”|新金宝APP|阳光网站官网下载|彩神彩票平台官方网|365体育开户平台
12月02日,山东高等教育展及HSK留学中国展(山东专场)曼谷举行,杏彩登录注册入口,澳博体育快速开户,ld乐动体育官网,美高梅游戏线上注册
12月02日,“千年打卡胜地”湖南零陵以民俗庙会布局“春节游”,新威尼斯人体育注册,K8彩,湖南国际频道真人秀,manbetx官方在线登录
12月02日,公安部:2023年打掉涉黑恶犯罪组织1900余个 抓获犯罪嫌疑人2.7万名,im电竞在哪玩,世界杯八强,天博综合体育app,手机电子游戏
12月02日|河北景县糖画艺人绘制“龙”形糖画 感受舌尖上的非遗|OD入口|博鱼在线登录|虎扑体育手机版|永利体育在哪注册
12月02日|良种+良机+良法 各地加强小麦田管保丰收|欧博下载地址|365世界杯买球网站|虚拟篮球比分|m6米乐在线
12月02日|“公园省”贵州:新潮玩法引爆“五一”假期|捕鱼打现金|千亿网站是什么|bet365在线投|合发888
广西民警为救轻生女孩牺牲,黑色止血钳2|(巴黎奥运)体操女子平衡木决赛:美国选手拜尔斯获第五名|英亚体育下载官网|冠亚体育网址|水果拉霸电玩游戏|足球外围前十平台
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺