(5分钟核心解读)万博app下载安卓版v4.1.95.0.65.05.88.3-2265安卓网_新万博体育

新万博体育

图片
搜索
猫眼电影 融媒体矩阵
  • 山东手机报

  • 猫眼电影

  • 大众网官方微信

  • 大众网官方微博

  • 抖音

  • 人民号

  • 全国党媒平台

  • 央视频

  • 百家号

  • 快手

  • 头条号

  • 哔哩哔哩

首页 >新闻 >社会新闻

HF日趋榜一!真端到端模型AutoDeco终结手动调参解码

2025-11-03 05:16:21
来源:

猫眼电影

作者:

奥达斯

手机查看

  猫眼电影记者 董昌 报道Q8X2R7L1T4J5M9B6W3

大语言模型(LLM)的「炼丹师」们,或许都曾面临一个共同的困扰:为不同任务、不同模型手动调整解码超参数(如 temperature 和 top-p)。这个过程不仅耗时耗力,而且一旦模型或任务发生变化,历史经验便瞬间失效,一切又得从头再来。

这种繁琐的试错过程,在许多研发团队的日常沟通中屡见不鲜,正如下图所展示的那样:

图 1:研发人员手动调整解码参数的日常。

一个灵魂拷问随之而来:为何不能让模型自己学会如何解码,从而实现真正的「端到端」?

事实上,各大模型厂商的 API 文档也印证了这一难题。以 DeepSeek 为例,其官方文档明确建议针对不同场景设置截然不同的 temperature 值,这使得单一的静态参数设置显得捉襟见肘。

图 2:不同任务需要不同的解码参数,这使得静态设置难以应对复杂多变的现实需求。

近日,由腾讯 AI Lab 的王琰研究员及其团队领衔,联合香港中文大学(深圳)唐晓莹教授及其博士生王志超给出了一个优雅的答案。他们推出了名为 AutoDeco 的全新架构,旨在彻底终结手动解码的「手工作坊」时代。这项研究《The End of Manual Decoding: Towards Truly End-to-End Language Models》,通过让模型动态预测并控制自身的解码参数,向着真正端到端的语言生成迈出了关键一步。

论文链接: https://huggingface.co/papers/2510.26697代码链接: https://github.com/Zacks917/AutoDeco模型链接: https://huggingface.co/collections/Jadeislaw/autodeco

图 3:AutoDeco 位居 Hugging Face Daily Papers 榜首

当前,尽管 LLM 本身已高度集成,但其生成过程的「最后一公里」—— 解码,仍然是一个独立于模型之外的、不可微的僵硬环节。研究团队形象地将其比作「手动挡变速箱」:无论引擎(LLM)多么强大,换挡(调参)依然依赖人工操作。

AutoDeco 的核心思想,就是为 LLM 装上「自动挡」。它通过在标准 Transformer 架构中引入两个超轻量的预测头,让模型在生成每一个 token 时,都能根据当前的上下文信息,动态地预测出最适合下一步生成的 temperature 和 top-p 值。其架构如下图所示:

图 4:AutoDeco(上)与传统手动解码(下)的对比。AutoDeco 将解码参数的预测无缝集成到模型的前向传播中,实现了动态自调节。

核心挑战与技术突破:如何训练一个没有「标准答案」的任务?

设想很美好,然而,一个关键的挑战摆在研究团队面前:如何训练这些预测头?在训练数据中,并不存在每一时刻「正确」的温度和 top-p 标签,这使得监督学习无从谈起。

为此,团队提出了一种创新的、完全端到端的训练策略。他们设计了一种新颖的可微分「软性 top-p」(soft top-p)机制,巧妙地替代了传统 top-p 采样中不可微的「硬截断」操作。该方法分为三步:

图 5:可微分的 soft top-p(橙色线)与传统的 hard top-p (绿色线)对比。Soft top-p 的平滑特性打通了从最终损失到解码参数预测头的梯度路径。

这一设计的巧妙之处在于,它使得从最终的「下一个词预测」损失到解码参数预测头的梯度能够顺畅回传。如此一来,模型便可以在标准的 Next Token Prediction 任务中,通过优化最终生成结果来「倒逼」自己学会如何动态调整解码策略,整个过程无需任何额外的标注数据。

AutoDeco 的惊人表现:三大亮点

通过在 Llama、Qwen、Deepseek 等多个主流模型家族上的广泛实验,AutoDeco 展现了其强大的能力:

卓越的性能与泛化能力

实验结果表明,AutoDeco 不仅稳定超越了传统的 Greedy Search 和 Default Sampling 等基线方法,其性能甚至能媲美、乃至超越了利用测试集进行精细调优的「神谕」基线(oracle-tuned baseline)。

图 6:AutoDeco 在多个数学和通用任务 benchmark 上均取得了 SOTA 性能,展现了其强大的泛化能力。

极致的效率与易用性

AutoDeco 的预测头设计极为轻量,其带来的额外推理延迟通常仅为 1.7%,内存开销也几乎可以忽略不计。对于开发者而言,接入 AutoDeco 模型仅需修改几行代码,即可享受「免费」的性能提升。

「言出法随」:开创性的自然语言控制能力

研究中最令人兴奋的发现之一,是 AutoDeco 涌现出的一种「通过自然语言控制解码」的能力。用户可以直接在 prompt 中通过自然语言下达指令,如「我希望答案更有创意」,模型便能「听懂」并自主地调高其预测的 temperature 和 top-p 值,整个过程清晰可见。

图 7:在不同指令下,AutoDeco 预测的 T/P 值变化。从左至右分别为:基线、高创造力指令(T/P 值自发升高)、高确定性指令(T/P 值自发降低)。

当然,作者坦言这种能力还不够完善,还做不到非常精准的控制。他们猜测实现细粒度、高精度的自然语言控制解码无法仅仅能通过微调 AutoDeco 模块做到,而是需要全参微调模型,这也被他们列为了 Future work 的重点。因此,作者没有放出带有自然语言控制能力的 AutoDeco heads 权重。

AutoDeco 在发布后迅速吸引全球 AI 社区的关注,在 Twitter 等社交平台上引发了顶尖学者、开发者和企业家的广泛热议和高度评价。

图 8:大模型社区对 AutoDeco 的广泛热议和高度评价。

目前,该团队已将论文、代码以及在多个主流模型上训练好的 AutoDeco heads 全面开源,包含适配于 Deepseek V3.1、Qwen3-235B、GPT-OSS-120B 等生产级大模型的版本。正如研究人员在分享中所说,这项工作旨在将研究者和开发者从繁琐的调参工作中解放出来,共同迈向一个更智能、更自动化的 AGI 新时代。

??时事1:ag旗舰厅客户端下载

??11月03日,中国业界申请政府对欧盟乳制品和猪肉展开反补贴反倾销调查?商务部回应,

  石毅刚一出生就被发现为重瞳,自然在族中引起了极大的震动,所有人都对他抱予了厚望,事实上他真的很非凡,天纵之资,学什么都很快,远超同龄人。

,leyu乐鱼官网登录。

??11月03日,新疆白哈巴景区:绝美冬景宛如童话世界,

  “这……差不多吧。”部落的族老支吾着点头。

?第一百零一章 一榔头撂倒,澳门城注册体验金,龙八国际游戏城,大发体育在线官网。

??时事2:大富豪斗牛牛

??11月03日,安徽省境内上市公司达181家,

  “即便那头狻猊垂垂老矣,也不是我们所能对付的。万不可贸然行动,耐心等待。”族长一脸凝重之色,认真告诫。

,AG真人官方平台,英国篮球比分,jx聚星app下载老版本。

??11月03日,Sora神话:迄今最具破坏性的网络威胁?,

  “锵”、“锵”……

,世界杯竞猜网上投注,澳门有抢庄牛牛,彩票网快乐十分。

??时事3:万博登录客户端

??11月03日,为种猪装芯片 港商内地打造工业级育种系统,

  轻轻一弹指,又一块头盖骨飞起,它一张嘴,吸干了那头颅中的脑浆,最后舔了猩红的嘴唇,这才松手。

,app下载体育,必赢亚洲手机app下载,九州网址。

??11月03日,正阳门箭楼保护修缮等获评北京市文物建筑保护优秀工程,

  这些人同时阻止,他们一齐出手,顿时宝术惊天,照亮了这片天宇。

,心水公开图,威廉希尔体育在线登陆,足彩外围有哪些平台。

??时事4:凯时下载地址

??11月03日,中国铁路上海局集团有限公司上海客运段开展“心聚力向未来 乘高铁迎进博”主题活动,

  杭州图书馆因实行“零门槛”阅读而感动众多网友,馆长因认为人人生而平等,给了乞丐、拾荒者等人阅读的机会,尊重了他们阅读的权利,从而获得了多数人的尊敬。试想一下,馆长自然明白让这群群体入馆会遭遇有些人的不满,但他义无反顾,并拒绝了其他读书的不合理要求,为什么?因为他明白要平等地对待每一个人。

,九游会下载安卓版下载不,新宝官网开户,双赢棋牌网站。

??11月03日,西安创新大遗址保护理念 实现大遗址与现代社会相融共生,

  二猛的父亲翻白眼,道:“这些猎物本来就是我们的,伤了我们这么多人,光陪个礼就算完了?”

,上葡京安卓客户端,澳门威斯人网站5555,世界杯在线开户。

责编:邹麟

审核:阿斯塔曼

责编:罗瑞卿

相关推荐 换一换