v4.224.8446.805498 安卓版
v6.492.9453.148821 安卓最新版
v1.629.2648 安卓免費版
v1.431.4426.377860 安卓最新版
v6.546 安卓最新版
v8.315 安卓漢化版
v3.546.3139.669376 IOS版
v8.585.1347.602919 最新版
v7.487.4813.501633 安卓版
v1.494.5243 安卓最新版
v7.505 最新版
v6.256 安卓漢化版
v8.694.9789.204339 最新版
v3.562.9229.449501 IOS版
v9.372.6813.198742 安卓版
v8.518.1179.983199 安卓最新版
v5.206.2857 安卓版
v8.51.4765 IOS版
v3.856.9945.224619 安卓版
v9.864.4614 最新版
v7.437 安卓最新版
v7.382.6263.727464 安卓免費版
v9.535.5686.861837 安卓免費版
v8.90.5686.160083 安卓最新版
v5.399.2488.568530 最新版
v1.214.9474 安卓版
v8.158 PC版
v9.880.8374.153145 安卓最新版
v8.851.9601 最新版
v1.100.474.62256 安卓漢化版
v2.674 PC版
v9.557.8380 最新版
v3.299.8849.921840 安卓最新版
v1.578.9028.652536 IOS版
v3.861.7762.987052 PC版
v1.899.9658.354709 最新版
v3.257 IOS版
v4.449.8226 安卓最新版
v5.345 PC版
v2.404.780 最新版
v1.152.9258 安卓版
v1.6 PC版
v6.73.4449 IOS版
v2.624 安卓版
v3.476.7489.68079 安卓免費版
v6.883.8664 安卓漢化版
v6.313 安卓版
v2.445 IOS版
v2.728.787 PC版
v7.866 IOS版
v5.662.492 安卓最新版
v5.165 安卓免費版
v8.136 安卓版
v4.333.1998.126166 IOS版
v1.240.3462.209711 安卓免費版
v7.578.7646.650600 安卓漢化版
v9.906.5570 安卓漢化版
v9.944.2055 安卓免費版
v9.245.3120.91826 安卓版
v9.365.6382.913265 安卓版
v9.152.4501.597562 安卓版
v4.611 安卓漢化版
v6.142.2487.419617 PC版
v5.43 安卓漢化版
v1.444.4943 安卓版
v3.594.293.422770 安卓漢化版
v2.562 安卓漢化版
v5.375.2675 最新版
v6.78 安卓免費版
v4.513.3953.229850 安卓版
v5.946.831 安卓漢化版
v7.80.4681.846495 安卓免費版
v5.353 最新版
v4.117.9792 安卓免費版
v9.975.111.370769 安卓最新版
v3.6.5276.873424 安卓版
v5.220.7940.56004 IOS版
v6.729 安卓漢化版
v5.429.9310.598673 安卓最新版
v4.728.6995.97127 安卓版
校 被
新智元报道
编辑:好困 定慧
【新智元导读】DeepSeek最新模型V3.2-Exp发布,推出全新注意力机制DeepSeek Sparse Attention(DSA),训练推理提效的同时,API同步降价达50%以上!
刚刚,DeepSeek最新模型上线!
代号DeepSeek-V3.2-Exp,被DeepSeek誉为最新的实验性模型!
这次V3.2主要基于DeepSeek-V3.1-Terminus,并且首次引入「DeepSeek稀疏注意力」(DeepSeek Sparse Attention,DSA),在长上下文上实现更快、更高效的训练与推理。
值得注意的是,这是第一个用「DeepSeek」品牌命名的关键技术(注意力机制)!
我们注意到,DSA正是此前与北大合作、梁文锋署名的那篇中,原生稀疏注意力(Native Sparse Attention,NSA)的改进。
技术报告里的引用
全新注意力机制
DeepSeek-V3.2-Exp的核心武器「DeepSeek稀疏注意力」,首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练和推理效率的大幅提升。
论文地址:https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
与之前模型最大的不同是,DSA不再让每个Token关注序列中的所有其他Token,而是引入了一个名为「闪电索引器」(lightning indexer)的高效组件。
这个索引器能以极快的速度判断,对于当前正在处理的Token,序列中哪些历史Token是最重要的。
随后,模型只从这些最重要的Token中选取(Top-k)一小部分(例如2048个)进行精细计算。
如此一来,核心注意力的计算复杂度就从O(L?)骤降至O(Lk),其中k是一个远小于L的固定值。
这在处理长文本时,无疑带来了巨大的效率提升。
更关键的是,这种效率提升并非以牺牲性能为代价。
在DeepSeek-V3.1的基础上,团队先用一个简短的「密集预热」阶段来初始化闪电索引器,让它学会模仿原有模型的注意力分布。
随后进入「稀疏训练」阶段,让整个模型适应新的稀疏模式。
最后,再沿用与前代模型完全相同的后训练流程,包括专家蒸馏和混合强化学习(GRPO)。
为了严谨地评估引入稀疏注意力带来的影响,DeepSeek特意把DeepSeek-V3.2-Exp的训练设置与V3.1-Terminus进行了严格的对齐。
DeepSeek-V3.2-Exp的架构图,其中DSA在MLA下实例化。
评估结果显示,无论是在短文本还是长文本任务上,DeepSeek-V3.2-Exp的性能与它的「密集注意力」前身V3.1-Terminus相比,都没有出现实质性的性能下降。
与此同时,在实际部署的推理成本测试中,其端到端的加速效果和成本节约非常显著。
虽然DeepSeek-V3.2-Exp目前还是一款实验性模型,但它所展示的「性能不降、成本骤减」的特性,为大模型突破长文本瓶颈,指明了一条充满希望的工程路径。
价格更便宜
DeepSeek再一次把模型价格打了下来!
得益于新模型服务成本的大幅降低,官方API价格也相应下调,新价格即刻生效。
在新的价格政策下,开发者调用DeepSeek API的成本将降低50%以上。
目前API的模型版本为DeepSeek-V3.2-Exp,访问方式保持不变。
最后,不得不说,这次DeepSeek太仁慈了,「发布节奏」真的听取了网友的建议,给众多AI界的朋友们放个好假!
参考资料:
https://api-docs.deepseek.com/zh-cn/news/news250929
相关版本
多平台下载
查看所有0条评论>网友评论