当前位置:首页 → 电脑软件 → 云南昆明发现人贩子窝点?谣言 → js06b金沙游戏 v2.898.5090.919966 IOS版
v8.973.1662.181282 安卓最新版
v2.1.5084.992152 最新版
v2.82.4215 安卓最新版
v1.119.4953.318047 安卓漢化版
v6.561.8178.866145 PC版
v9.22.4080.642467 安卓免費版
v2.718.3801.109960 PC版
v3.494 PC版
v6.292.2632.381474 PC版
v8.883.2778 IOS版
v9.404.2815 IOS版
v2.85.2921.462148 安卓免費版
v2.13.4.359337 安卓漢化版
v1.863.1240.646887 安卓免費版
v9.752.5435.119860 安卓最新版
v8.996.5637.977968 PC版
v9.564.4132.428902 IOS版
v8.111.7702.786091 IOS版
v8.795 PC版
v8.318 安卓最新版
v3.605 IOS版
v4.152.1006 安卓最新版
v4.948.9455.517764 最新版
v3.858 安卓免費版
v7.15 安卓最新版
v6.673 IOS版
v6.734.7229 安卓漢化版
v6.674.3698.34428 安卓免費版
v5.60.4362.67841 安卓漢化版
v9.38.2006 安卓版
v1.709.2631.275068 IOS版
v8.43 最新版
v7.23 安卓免費版
v8.863.512 IOS版
v2.53 安卓漢化版
v1.418.4110.166832 PC版
v6.90 最新版
v4.810.3261 安卓最新版
v2.439.8466.630005 安卓漢化版
v5.212.5205.395298 最新版
v5.307.1571.74399 IOS版
v4.945 IOS版
v7.151.3121.893142 PC版
v5.531.1540.688459 IOS版
v2.230.6603 安卓漢化版
v7.462.7224.245087 安卓免費版
v1.438.1723.795724 安卓漢化版
v7.167.2421 安卓免費版
v2.49.6268.918601 安卓最新版
v7.938.730.154265 IOS版
v7.352.6351 最新版
v9.329.8714 安卓免費版
v4.154.6722.789353 安卓版
v4.408.6324.714596 安卓最新版
v3.885 安卓免費版
v2.514.4223.561073 安卓漢化版
v2.929.1121.398240 最新版
v6.49.8022.469836 PC版
v8.286.6387 安卓版
v2.278 最新版
v4.218.7847 安卓最新版
v7.969.2272.160420 安卓最新版
v4.975 PC版
v1.472 最新版
v3.977 PC版
v7.776.9951.296144 IOS版
v5.61 安卓版
v2.875.4107.841047 安卓版
v4.993 PC版
v3.860.3513 PC版
v3.273.7463.378695 安卓免費版
v7.929.3193.184364 安卓免費版
v5.993 安卓最新版
v4.306.3964.226626 安卓免費版
v3.664.3511.907328 安卓免費版
v2.250.8003.200903 安卓最新版
v1.336.8155 安卓漢化版
v7.214.6802 安卓免費版
v4.271.1956.639292 安卓最新版
v2.721 PC版
js06b金沙游戏
该项目由北京大学彭一杰教授课题组完成,第一作者为任韬,其他作者包括江金阳、杨晖等。
研究背景与挑战:大模型后训练陷入「均值陷阱」,推理能力难破界
当强化学习(RL)成为大模型后训练的核心工具,「带可验证奖励的强化学习(RLVR)」凭借客观的二元反馈(如解题对错),迅速成为提升推理能力的主流范式。从数学解题到代码生成,RLVR 本应推动模型突破「已知答案采样」的局限,真正掌握深度推理逻辑 —— 但现实是,以 GRPO 为代表的主流方法正陷入「均值优化陷阱」。
这些基于均值的优化策略,过度聚焦高概率输出序列,却忽略了「低概率但高信息密度」的推理路径:模型训练早期就会出现熵坍缩,过早丧失探索能力;面对全错的难题时,优势函数直接归零,模型在薄弱环节完全无法学习。最终结果是,大模型看似在 Pass@1 等短视指标上有提升,实则推理边界从未拓宽,更无法应对 AIME 竞赛题、复杂代码生成这类高难度任务。如何让模型主动「啃硬骨头」,成为大模型后训练的关键瓶颈。
AIME2024 上的学习表现
技术方案概述:用「风险度量」破局,MVaR + 捆绑策略双管齐下
为解决传统均值优化的缺陷,北大团队提出 RiskPO,核心突破在于将风险规避(risk-averse)理念融入优化目标,用「关注奖励分布左尾(难任务)」替代「追求整体均值」,从根本上引导模型突破推理短板。
论文链接:https://arxiv.org/abs/2510.00911v1代码链接:https://github.com/RTkenny/RiskPO
为配合 MVaR 目标,团队提出「多问题捆绑」策略,将多个问题打包成 bundle 计算奖励,把稀疏的二进制反馈转化为更丰富的分布信号,彻底解决「难题零梯度」问题—— 比如将 5 个数学题打包后,模型能从整体得分中捕捉到「部分正确」的学习信号,而非单个题目非对即错的极端反馈。
算法架构图
实验:三大任务全面碾压,难问题上优势更显著
好的技术方案,终要靠硬指标说话。北大团队在数学推理、代码生成、多模态推理三大领域的 10 余个数据集上,用数据证明了 RiskPO 的突破性 —— 尤其在最能体现推理能力的「硬任务」上,优势远超 GRPO 及其变体。
在数学推理领域,RiskPO 在 AIME24(美国数学邀请赛)任务上表现惊艳:Pass@32 得分比 GRPO 高出近 7 个百分点,比最强基线 DAPO 提升 6.7 个百分点;即便是相对简单的 MATH500 数据集,其 Pass@1 也达到 81.8%,超出 GRPO 2.6 个百分点。
更关键的是,随着评估指标从 Pass@1 转向 Pass@8、Pass@16,RiskPO 的优势持续扩大 ——这意味着模型不仅能给出更优的单条答案,还能探索新万博体育:有效推理路径,真正突破了「采样效率优化」的局限。
数学推理任务
Pass@k 学习曲线
在跨领域任务中,RiskPO 同样稳定领先:代码生成任务 LiveCodeBench 上,Pass@1 比 GRPO 提升 1 个百分点;多模态几何推理任务 Geo3K 上,准确率达到 54.5%,优于 DAPO 的 54.3%。这种「全场景增益」,证明了风险度量优化的泛化能力。
其他任务
理论 + 消融:熵坍缩缓解有依据,参数设计有章法
RiskPO 的性能突破,并非依赖工程调参,而是有扎实的理论支撑和严谨的消融实验验证。
高熵更新定理
从理论层面,团队证明了「风险规避更新」能有效缓解熵坍缩:通过分析策略熵的变化机制,发现 RiskPO 的 MVaR 目标函数能降低「优势 - 对数概率」的相关性 —— 相比 GRPO,模型不会过度强化已掌握的易任务,从而保持更高的熵值和探索能力。
实验中也能清晰看到:训练 500 步后,GRPO 的熵值已趋近于 0,而 RiskPO 仍能维持 0.2 以上的熵水平,确保对难任务的持续探索。
训练集 DAPOMATH-17k 上的各项指标
值得注意的是,在训练过程中,若仅观察以均值为核心的指标曲线(如平均奖励),GRPO 与 RiskPO 的表现几乎难分伯仲,甚至 RiskPO 因更高的探索性还伴随轻微波动;但切换到风险敏感指标(如下尾 RVaR、MVaR 奖励)时,两者差距立刻凸显 ——RiskPO 的曲线始终保持显著领先,且随训练推进持续攀升。
这种「均值相近、风险指标悬殊」的现象,再结合最终测试集上 RiskPO 在 Pass@k(尤其是高 k 值)、难任务(如 AIME 竞赛题)上的优势,进一步印证了:均值目标只能让模型在「已知能力范围内优化采样效率」,而风险度量目标才是推动模型突破推理边界、真正提升核心能力的理想方向。
不同风险偏好对比实验
结果显示,风险寻求模型的熵值在训练早期就剧烈坍缩—— 训练 150 步后熵值已降至 0.1 以下,远低于 RiskPO 的 0.2;性能上,风险寻求模型在训练 50 步后便进入平台期,MATH 数据集 Pass@1 仅从 52% 提升至 54%,而 RiskPO 则持续优化至 56%,实现 1.5 倍的提升幅度。
这一对比清晰证明,聚焦易任务的风险寻求策略会加速模型「固步自封」,只有风险规避才能驱动模型突破推理边界
相关版本
多平台下载
查看所有0条评论>网友评论