当前位置:首页 → 电脑软件 → 韩作家称“汉字由韩国人创造” → 女奥特曼18❌本子ACG v1.823 安卓免費版
v8.573.7845.105682 安卓最新版
v2.307.5444.964094 PC版
v9.149.3770.620894 安卓漢化版
v3.477.8376.868108 安卓最新版
v8.255.6942 安卓漢化版
v4.909.2266.513794 安卓免費版
v8.395.2366.128712 最新版
v8.574.2417.788523 安卓免費版
v6.74 IOS版
v6.713 安卓漢化版
v7.25.4065.384083 最新版
v2.451.9868.817554 安卓版
v1.196.9448.271294 安卓漢化版
v5.92.9279 安卓版
v8.931.1419 最新版
v1.400 最新版
v6.105.7021.18433 最新版
v6.654 安卓最新版
v3.75 安卓漢化版
v8.936.787.18317 最新版
v3.253 安卓漢化版
v5.978 安卓最新版
v1.561 安卓最新版
v8.710.9842 PC版
v2.66.1166.513856 安卓最新版
v7.60 安卓版
v9.585.9032.312567 安卓最新版
v2.187 安卓免費版
v9.768 IOS版
v5.826.2262 PC版
v2.339.6931.906145 IOS版
v4.4.851 PC版
v1.367.6460.826372 PC版
v5.621.4440.741990 IOS版
v4.564.7345 安卓最新版
v5.449.3405.172982 安卓漢化版
v3.633.132.932751 安卓版
v3.379.829.586008 最新版
v3.602.4400.906746 安卓免費版
v1.437 最新版
v1.177.8767.511204 PC版
v6.104.8541.160978 安卓版
v4.512.8654.892549 IOS版
v8.985 安卓最新版
v1.787 IOS版
v4.932 IOS版
v3.309.7925.588909 安卓最新版
v3.360.85.911299 安卓免費版
v7.323.8189.238306 安卓漢化版
v5.618.5642 安卓版
v7.244.6329.802856 安卓版
v6.63.3798.566606 安卓免費版
v3.221.9372 安卓免費版
v3.603.5641.472551 安卓免費版
v3.737.5332.660814 安卓漢化版
v5.16.9457 IOS版
v1.72.8680.584730 最新版
v1.551.5623 PC版
v5.602.1957.451030 安卓免費版
v6.218.5618 安卓免費版
v7.663.9231.18775 IOS版
v6.201.2721.818626 最新版
v2.941.3089 最新版
v3.264.8021.662016 安卓版
v5.495 最新版
v2.202.7015 最新版
v8.665 安卓最新版
v9.276.4170.467871 安卓漢化版
v8.226.8281.373948 IOS版
v1.960.1304.847463 最新版
v9.555.71 安卓最新版
v9.953 PC版
v5.12 安卓漢化版
v5.866 安卓最新版
v6.970 IOS版
v3.101.93 安卓版
v3.204.9795.993683 IOS版
v5.702.4877 PC版
v6.858.5335.64086 最新版
v6.174.1792 安卓版
女奥特曼18❌本子ACG
新智元报道
编辑:好困 定慧
【新智元导读】DeepSeek最新模型V3.2-Exp发布,推出全新注意力机制DeepSeek Sparse Attention(DSA),训练推理提效的同时,API同步降价达50%以上!
刚刚,DeepSeek最新模型上线!
代号DeepSeek-V3.2-Exp,被DeepSeek誉为最新的实验性模型!
这次V3.2主要基于DeepSeek-V3.1-Terminus,并且首次引入「DeepSeek稀疏注意力」(DeepSeek Sparse Attention,DSA),在长上下文上实现更快、更高效的训练与推理。
值得注意的是,这是第一个用「DeepSeek」品牌命名的关键技术(注意力机制)!
我们注意到,DSA正是此前与北大合作、梁文锋署名的那篇中,原生稀疏注意力(Native Sparse Attention,NSA)的改进。
技术报告里的引用
全新注意力机制
DeepSeek-V3.2-Exp的核心武器「DeepSeek稀疏注意力」,首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练和推理效率的大幅提升。
论文地址:https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
与之前模型最大的不同是,DSA不再让每个Token关注序列中的所有其他Token,而是引入了一个名为「闪电索引器」(lightning indexer)的高效组件。
这个索引器能以极快的速度判断,对于当前正在处理的Token,序列中哪些历史Token是最重要的。
随后,模型只从这些最重要的Token中选取(Top-k)一小部分(例如2048个)进行精细计算。
如此一来,核心注意力的计算复杂度就从O(L?)骤降至O(Lk),其中k是一个远小于L的固定值。
这在处理长文本时,无疑带来了巨大的效率提升。
更关键的是,这种效率提升并非以牺牲性能为代价。
在DeepSeek-V3.1的基础上,团队先用一个简短的「密集预热」阶段来初始化闪电索引器,让它学会模仿原有模型的注意力分布。
随后进入「稀疏训练」阶段,让整个模型适应新的稀疏模式。
最后,再沿用与前代模型完全相同的后训练流程,包括专家蒸馏和混合强化学习(GRPO)。
为了严谨地评估引入稀疏注意力带来的影响,DeepSeek特意把DeepSeek-V3.2-Exp的训练设置与V3.1-Terminus进行了严格的对齐。
DeepSeek-V3.2-Exp的架构图,其中DSA在MLA下实例化。
评估结果显示,无论是在短文本还是长文本任务上,DeepSeek-V3.2-Exp的性能与它的「密集注意力」前身V3.1-Terminus相比,都没有出现实质性的性能下降。
与此同时,在实际部署的推理成本测试中,其端到端的加速效果和成本节约非常显著。
虽然DeepSeek-V3.2-Exp目前还是一款实验性模型,但它所展示的「性能不降、成本骤减」的特性,为大模型突破长文本瓶颈,指明了一条充满希望的工程路径。
价格更便宜
DeepSeek再一次把模型价格打了下来!
得益于新模型服务成本的大幅降低,官方API价格也相应下调,新价格即刻生效。
在新的价格政策下,开发者调用DeepSeek API的成本将降低50%以上。
目前API的模型版本为DeepSeek-V3.2-Exp,访问方式保持不变。
最后,不得不说,这次DeepSeek太仁慈了,「发布节奏」真的听取了网友的建议,给众多AI界的朋友们放个好假!
参考资料:
https://api-docs.deepseek.com/zh-cn/news/news250929
相关版本
多平台下载
查看所有0条评论>网友评论