大语言模型(LLM)的「炼丹师」们,或许都曾面临一个共同的困扰:为不同任务、不同模型手动调整解码超参数(如 temperature 和 top-p)。这个过程不仅耗时耗力,而且一旦模型或任务发生变化,历史经验便瞬间失效,一切又得从头再来。
这种繁琐的试错过程,在许多研发团队的日常沟通中屡见不鲜,正如下图所展示的那样:
图 1:研发人员手动调整解码参数的日常。
一个灵魂拷问随之而来:为何不能让模型自己学会如何解码,从而实现真正的「端到端」?
事实上,各大模型厂商的 API 文档也印证了这一难题。以 DeepSeek 为例,其官方文档明确建议针对不同场景设置截然不同的 temperature 值,这使得单一的静态参数设置显得捉襟见肘。
图 2:不同任务需要不同的解码参数,这使得静态设置难以应对复杂多变的现实需求。
近日,由腾讯 AI Lab 的王琰研究员及其团队领衔,联合香港中文大学(深圳)唐晓莹教授及其博士生王志超给出了一个优雅的答案。他们推出了名为 AutoDeco 的全新架构,旨在彻底终结手动解码的「手工作坊」时代。这项研究《The End of Manual Decoding: Towards Truly End-to-End Language Models》,通过让模型动态预测并控制自身的解码参数,向着真正端到端的语言生成迈出了关键一步。
论文链接: https://huggingface.co/papers/2510.26697代码链接: https://github.com/Zacks917/AutoDeco模型链接: https://huggingface.co/collections/Jadeislaw/autodeco
图 3:AutoDeco 位居 Hugging Face Daily Papers 榜首
当前,尽管 LLM 本身已高度集成,但其生成过程的「最后一公里」—— 解码,仍然是一个独立于模型之外的、不可微的僵硬环节。研究团队形象地将其比作「手动挡变速箱」:无论引擎(LLM)多么强大,换挡(调参)依然依赖人工操作。
AutoDeco 的核心思想,就是为 LLM 装上「自动挡」。它通过在标准 Transformer 架构中引入两个超轻量的预测头,让模型在生成每一个 token 时,都能根据当前的上下文信息,动态地预测出最适合下一步生成的 temperature 和 top-p 值。其架构如下图所示:
图 4:AutoDeco(上)与传统手动解码(下)的对比。AutoDeco 将解码参数的预测无缝集成到模型的前向传播中,实现了动态自调节。
核心挑战与技术突破:如何训练一个没有「标准答案」的任务?
设想很美好,然而,一个关键的挑战摆在研究团队面前:如何训练这些预测头?在训练数据中,并不存在每一时刻「正确」的温度和 top-p 标签,这使得监督学习无从谈起。
为此,团队提出了一种创新的、完全端到端的训练策略。他们设计了一种新颖的可微分「软性 top-p」(soft top-p)机制,巧妙地替代了传统 top-p 采样中不可微的「硬截断」操作。该方法分为三步:
图 5:可微分的 soft top-p(橙色线)与传统的 hard top-p (绿色线)对比。Soft top-p 的平滑特性打通了从最终损失到解码参数预测头的梯度路径。
这一设计的巧妙之处在于,它使得从最终的「下一个词预测」损失到解码参数预测头的梯度能够顺畅回传。如此一来,模型便可以在标准的 Next Token Prediction 任务中,通过优化最终生成结果来「倒逼」自己学会如何动态调整解码策略,整个过程无需任何额外的标注数据。
AutoDeco 的惊人表现:三大亮点
通过在 Llama、Qwen、Deepseek 等多个主流模型家族上的广泛实验,AutoDeco 展现了其强大的能力:
卓越的性能与泛化能力
实验结果表明,AutoDeco 不仅稳定超越了传统的 Greedy Search 和 Default Sampling 等基线方法,其性能甚至能媲美、乃至超越了利用测试集进行精细调优的「神谕」基线(oracle-tuned baseline)。
图 6:AutoDeco 在多个数学和通用任务 benchmark 上均取得了 SOTA 性能,展现了其强大的泛化能力。
极致的效率与易用性
AutoDeco 的预测头设计极为轻量,其带来的额外推理延迟通常仅为 1.7%,内存开销也几乎可以忽略不计。对于开发者而言,接入 AutoDeco 模型仅需修改几行代码,即可享受「免费」的性能提升。
「言出法随」:开创性的自然语言控制能力
研究中最令人兴奋的发现之一,是 AutoDeco 涌现出的一种「通过自然语言控制解码」的能力。用户可以直接在 prompt 中通过自然语言下达指令,如「我希望答案更有创意」,模型便能「听懂」并自主地调高其预测的 temperature 和 top-p 值,整个过程清晰可见。
图 7:在不同指令下,AutoDeco 预测的 T/P 值变化。从左至右分别为:基线、高创造力指令(T/P 值自发升高)、高确定性指令(T/P 值自发降低)。
当然,作者坦言这种能力还不够完善,还做不到非常精准的控制。他们猜测实现细粒度、高精度的自然语言控制解码无法仅仅能通过微调 AutoDeco 模块做到,而是需要全参微调模型,这也被他们列为了 Future work 的重点。因此,作者没有放出带有自然语言控制能力的 AutoDeco heads 权重。
AutoDeco 在发布后迅速吸引全球 AI 社区的关注,在 Twitter 等社交平台上引发了顶尖学者、开发者和企业家的广泛热议和高度评价。
图 8:大模型社区对 AutoDeco 的广泛热议和高度评价。
目前,该团队已将论文、代码以及在多个主流模型上训练好的 AutoDeco heads 全面开源,包含适配于 Deepseek V3.1、Qwen3-235B、GPT-OSS-120B 等生产级大模型的版本。正如研究人员在分享中所说,这项工作旨在将研究者和开发者从繁琐的调参工作中解放出来,共同迈向一个更智能、更自动化的 AGI 新时代。
《葡京体育手机版注册》,《Q8X2R7L1T4J5M9B6W3》纬来体育好玩吗?
“火狐体育网页版登录”
宝马会体育平台
……
10月30日
“果博游戏登录”碰撞搜查线
↓↓↓
10月30日,财政部:2023年中央财政安排基本养老保险补助资金约1万亿元,h游戏入口,img体育,万博登录界面,开元棋牌官网APP
10月30日,广西少年儿童游泳锦标赛开赛 逾500人水中竞逐,威尼斯软件,双赢棋牌网站,必威体育app,hth华体会网站是什么
10月30日,如何巩固经济向好势头?财政部称将重点从六方面持续发力,世界杯去哪里投注,和真人下国际象棋,银河在线官方,手机赌钱手游有哪些
10月30日|外媒:俄罗斯总统普京将访问朝鲜|m5彩票官方注册|优发国际捕鱼|真人在线游戏门户|可以斗牛的游戏
10月30日|欧阳奋强:没必要拿过去的观念给当下上课|熊猫体育平台官网|九州体育娱乐官网bet9|华体会最新|手机版体球足球比分
10月30日|GDP同比增4.9% “村超”“村BA”助推贵州旅游经济发展|bbin在线登陆|云开体育app网页版|扑克王撲克王下载|手机球探网旧版……
10月30日,中西文化交融 法国编导深研非遗打造芭蕾舞剧《七夕》,dafa娱乐场经典版,优德体育w88官网手机版,买球在哪买,ManBetxAPP安卓
10月30日,10国留学生在重庆感受西部陆海新通道建设新貌,龙8国际在哪开户,万象城awc777,赢钱的斗地主软件排行,bob78体育
10月30日|护腰不难,先告别“沙发瘫”|科普时间 |雷竞技平台|万博体育网站|十三水娱乐|世界杯买球app排行
10月30日,国管局、中直管理局发文规范和加强中央和国家机关新能源汽车配备和使用管理,8波旧版手机足球比分,网上ag,国际汉语 网络 真人教学,纬来体育官网App下载
10月30日,2024年上半年末澳门人口68.7万人,博雅德州下架为什么还能玩,凯发娱乐手机app,澳门金沙城娱乐网站,葡京会官网下载
10月30日,新西兰总理为该国护理机构虐待丑闻道歉,bt365博彩app2019最新地址,亚薄体育官网,aoa足球体育官方app,必威手机网
10月30日|从春节申遗看中华文化走向世界|云顶娱乐手机网页版登录|澳门最正规网投平台|金沙澳门游戏|澳门太阳集团备用网址
10月30日|江西宜春版画入疆 促赣新两地文化艺术交流|365速发在线注册|最好玩现金炸金花|明博体育可靠吗|心博天下在哪注册
10月30日|(寻味中华|侨乡)在梅家大院探寻台山侨圩今昔“电报”创始人被捕 俄罗斯外交部发声|PG电子游戏官网|永利体育登录|女子整容成"真人芭比" 称不吃不喝靠空气生存 国际在线|凤凰彩票下载
母亲,我家公子会插秧了|广东自然教育基地增至135家|beplay入口|云顶娱乐登录不了|银河娱乐下载|尊龙手机客户端app
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺