Agentic Coding表现创新高,全新KAT系列模型强势霸榜SWE-Bench
近期,快手 Kwaipilot 团队推出了KAT 系列两款突破性 Agentic Coding 大模型开源 32B 参数模型 KAT-Dev-32B闭源旗舰模型 KAT-Coder
这两款模型在 Code Intelligence 领域分别体现出轻量级的超强表现和极致性能。其中,在 SWE-Bench Verified 上,KAT-Dev-32B 展现出强劲性能并取得了 62.4% 的解决率,在所有不同规模的开源模型中排名第 5。与此同时,KAT-Coder 以 73.4% 的解决率在 SWE-Bench Verified 上取得了极佳的单模型表现,比肩全球顶尖闭源模型。
图 1:在 SWE-Bench Verified 上,和全尺寸开源模型对比,KAT-Dev 用极小的模型尺寸取得了第一梯队的性能
图 2:在 SWE-Bench Verified 上,KAT-Coder 取得极佳的单模型表现,比肩全球顶尖闭源模型性能
模型开源和 API 开放
KAT-Dev-32B 已在开源模型托管平台 Hugging Face 上线,可供进一步研究和开发使用。KAT-Coder 模型的 API 密钥近期也在 “快手万擎” 企业级大模型服务与开发平台上开放申请,用户将能够通过 Claude Code 等工具直接访问并进行编码。
快手 Kwaipilot 团队的官方技术 Blog:https://kwaipilot.github.io/KAT-Coder/KAT-Dev-32B 模型开源地址:https://huggingface.co/Kwaipilot/KAT-DevKAT-Coder 开发工具接入指南:https://www.streamlake.com/document/WANQING/me6ymdjrqv8lp4iq0o9KAT-Coder API Key 申请:https://console.streamlake.com/wanqing/
核心贡献点摘要
KAT-Dev-32B 和 KAT-Coder 在多个训练阶段进行了创新和优化,包括 Mid-Training 阶段、监督微调 (SFT) 阶段、强化微调 (RFT) 阶段,以及大规模智能体强化学习 (RL) 阶段,具体如下:
Mid-Training:Kwaipilot 团队发现,在这一阶段大量增加工具使用能力、多轮交互和指令遵循的训练,虽然在当前结果上(例如在 SWE-bench 等排行榜)可能不会带来显著的性能提升,但对后续的 SFT 和 RL 阶段具有重大影响。SFT & RFT:团队在 SFT 阶段精心策划了八种任务类型和八种编程场景,以确保模型的泛化能力和综合能力。此外,在 RL 之前,创新性地引入了 RFT 阶段,使用人类工程师标注的 "教师轨迹" 作为训练期间的指导。大规模 Agentic RL:当前,扩展智能体 RL 面临三个挑战:非线性轨迹历史的高效学习、利用内在模型信号以及构建可扩展的高吞吐量基础设施。对此,Kwaipilot 团队通过对数概率计算的前缀缓存(Log-Probability Prefix Caching)、基于熵的轨迹剪枝(Entropy-based Tree Pruning)和自研的工业级规模强化学习训练框架 SeamlessFlow 来解决这些问题。
KAT 系列模型的核心技术路线
一、Mid-Training
Kwaipilot 团队对经过预训练的模型进行了两阶段训练,该阶段被称为 Mid-Training。在其中的第一个阶段,增强了模型与 “LLM-as-Agent” 相关的全方位能力,包括但不限于以下几种能力:
工具调用能力:构建了在沙盒环境真实执行工具的调用方法以及执行结果的交互数据,用于提升模型的工具调用能力;多轮交互能力:构建了最长数百轮的人类、模型、工具的交互数据,用于提升在长文本情况下模型的多轮交互能力;编码知识注入:加入了高质量的与编码相关的领域知识数据,用于进一步增强模型在编码场景下的性能;Git Commit 数据:加入了大量来自于真实 Git 仓库的 PR 数据,用于进一步提升模型在真实编程任务下的表现;指令跟随数据:收集了 30 + 类常见的用户指令,用于增强模型对用户指令的理解能力;通用及思考数据:构建了多类通用数据,用于增强模型在通用领域以及在调用工具时进行思考的能力。
二、监督微调 (Supervised Fine-Tuning, SFT)
在第二阶段,Kwaipilot 团队收集了大量人类工程师标记的真实需求交付轨迹,并基于此合成了大量的轨迹数据,进一步对模型进行训练,以增强其端到端需求交付的能力。其中覆盖了多种任务类型:
八大用户任务类型:
Feature Implementation(功能实现)Feature Enhancement(功能增强)Bug Fixing(缺陷修复)Refactoring(结构优化)Performance Optimization(性能优化)Test Case Generation(测试用例生成)Code Understanding(代码理解)Configuration & Deployment(配置与部署)
八大用户编程场景:
Application Development(应用开发)UI/UX Engineering(界面与用户体验工程)Data Science & Engineering(数据科学与工程)Machine Learning & AI(机器学习与人工智能)Database Systems(数据库系统)Infrastructure Development(基础设施开发)Specialized Programming Domains(专业编程领域)Security Engineering(安全工程)
三、强化微调(Reinforcement Finetune,RFT)
在这一阶段,Kwaipilot 团队在强化学习流程的基础上,额外引入了多个 ground truth 用于轨迹探索的指导,提升 rollout 效率,从绝对 reward 到衡量与 ground truth 的差异,提升了强化学习阶段的效率和稳定性。
从直接给定绝对 reward 更新为衡量 rollout 样本和 ground truth 之间的相对差异给了强化学习更稳定和更准确的奖励信号,同时也会在 rollout 阶段实时监督样本的正确性,并及时终止与 ground truth 有明显偏离的样本生成,这也给强化学习带来了更高的样本效率。
图 3:在强化微调(RFT)流程中,引入教师轨迹作为指导
经过三阶段的训练,团队获得了为 RL 阶段准备的冷启动模型,RFT 的加入也为 SFT 和 RL 之间构建了桥梁。
Mid-Training:首先,团队教会大模型各种基本技能,包括如何使用工具、如何理解用户意图等;SFT:其次,用高质量的轨迹数据,让模型学习如何执行真实的下游任务;RFT:最后,在模型准备 “自由探索” 之前,先由教师轨迹手把手教会模型如何探索,保障了模型后续在 RL 阶段的稳定性。
四、大规模 Agentic RL
1、基于熵的树剪枝(Entropy Based Tree Pruning)
Kwaipilot 团队发现,即便使用上述技术,对完整树中的所有 token 进行训练的成本仍然过高,因此亟需设计一种能够优先聚焦于携带最强训练信号节点的机制。
为此,团队将轨迹压缩成一个前缀树,其中每个节点表示一个共享前缀,每条边对应一段 token。在固定的计算预算下,目标是只保留最有价值的节点进行训练。团队基于树中聚合的熵信号和节点被到达的可能性来估计节点的信息量,并按照重要性顺序扩展节点来剪枝树,直到预算耗尽。额外的启发式方法确保保留结构上的重要区域(例如,工具或内存事件),并维护局部上下文以稳定训练。这种基于熵的剪枝大幅减少冗余计算,同时保留大部分有效的训练信号,从而实现显著的吞吐量提升和更低的总体成本。
2、RL infra:自研 SeamlessFlow 框架
图 4:Kwaipilot 团队自研的 RL 训练框架 SeamlessFlow 架构
为扩展 RL,必须将 RL 训练与智能体的多样化内部逻辑完全解耦,同时最大化异构计算架构的利用率。遵循 SeamlessFlow 的设计,Kwaipilot 团队在智能体和 RL 训练之间设计了一个专门用于轨迹树管理的中间层,确保两者之间的严格分离。此外,采用提出的标签驱动调度机制来协调异构集群中的任务分配,从而最小化管道气泡并维持高吞吐量训练。
3、统一环境接口和企业级 RL 数据构建
Kwaipilot 团队还通过统一不同 RL 执行环境的部署和评估接口,使任何新添加的环境都能以低成本无缝集成。这种统一设计为跨异构数据源和任务类型扩展 RL 训练奠定了坚实基础。具体到软件开发场景,团队聚集于三个基本组件:与相应分支代码配对的问题描述、可执行环境和可验证的测试用例。
Kwaipilot 团队从开源仓库收集拉取请求和相关问题,并根据这些仓库的星标、PR 活动和问题内容过滤低质量数据,随后系统地为每个收集的实例构建可执行环境镜像并生成单元测试用例。除了软件工程数据,团队还纳入了其他可验证领域,如数学和推理任务,进一步丰富了 RL 信号的多样性。
更重要的是,除了开源数据,团队还进一步收集并利用来自真实世界工业系统的匿名企业级代码库进行 RL 训练。与仅在公共仓库(如 GitHub 上的仓库)上训练不同,这些仓库通常包含较简单的项目,而这些大规模、复杂的代码库 —— 跨越多种编程语言并代表真实的业务逻辑 —— 让模型接触到更具挑战性的开发场景,为 RL 提供了高价值的资产。训练智能体解决这些真实世界的工业问题不仅增强了学习的鲁棒性,还将所得模型的编程能力建立在现实的生产级环境中。
图 5:在 SWE-Bench Verified 上,各阶段训练对模型的性能影响
模型效果展示
KAT-Coder 模型具备强大的代码生成能力,可独立完成完整的项目开发,通过调用编程工具可实现从交互式游戏到代码重构等多样化编程任务。用户仅需描述需求,模型即可交付完整的代码解决方案。
1、星空效果
2、水果忍者
3、代码重构
大规模 Agentic RL 后的涌现能力
对经过大规模 Agentic RL 训练后的模型进行分析,Kwaipilot 团队观测到了两个显著的涌现现象:
对话轮次显著降低:模型倾向于用更少的交互轮次完成任务,相较于 SFT 模型,平均对话轮次下降了 32%;多工具并行调用:模型展现出同时调用多个工具的能力,而非传统的串行调用。
团队推测,这源于轨迹树结构带来的隐式优化压力,使模型自然形成效率偏好与并行调用能力。
效率偏好的形成:在轨迹树结构中,较短的路径(更少的对话轮次)会被新万博体育:的训练样本共享。这创造了一个隐式的优化压力:模型倾向于学习更高效的解决方案;并行化的自然选择:在树结构中,多工具并行调用创造了新万博体育:的分支可能性,这些分支在训练时被独立处理,使得模型能够同时探索多个工具组合。同时熵剪枝机制(Long-term Entropy Pruning)保留了信息量较大的节点,而多工具调用节点往往具有更高的熵值,使模型逐渐学会了 "批处理" 思维。
未来展望
Kwaipilot 团队将持续探索代码智能的前沿领域,开拓创新可能:
增强工具集成:与流行的 IDE、版本控制系统和开发工作流深度集成,创建无缝的编码体验。多语言扩展:扩展 KAT 模型能力以覆盖新兴的编程语言和框架,确保全面的语言支持。协作编码:探索多智能体系统,让 KAT 模型能够在复杂的软件项目上协同工作,实现前所未有的协作。多模态代码智能:集成视觉理解能力,处理架构图、UI 设计、调试截图和文档图像以及代码,使开发过程更加直观和高效。
原文链接:https://kwaipilot.github.io/KAT-Coder/
涩漫入口免费❤网站
被触手吊起来C满全身里玩乳头
欧洲美女屁股眼交2
扒开❌狂揉❌脱脱内内视频双男
娇妻被老翁伦轩到高潮
gidle谁的学历最高
男人把困困放在女人困困里视频
惩罚妺妺脱个精光打屁股
挠裸体女同学乳尖到崩溃
破尽玉门关电影免费播放
玖辛奈裸体被❌羞羞A片
男女又爽又黄免费怀孕
乖~把腿张开大一点就不疼了
国产足控免费网站❌Xx
沦为宇宙妓院的星穹列车黄文
❌吸乳18禁羞羞免费入口
米奇影视盒第四88888
好猛好爽好湿别停~高H视频
V11Av视频在线观看
纲手被扒开腿坐❌同人动漫
二次元男裸体❌开腿P图
女性向羞羞片silklabo
jennie爆乳露双奶头照片
中国入籍霉霉
蜜桃视频成人AV在线观看
白丝秦怡宁被啪到腿软
美女被c视频
卡蜜拉奥特曼被强喂精子
一拳超人吹雪被❌的黄漫小黄书
丝瓜app色版❤网站观看
FreeHD18❌❌❌极品
黄婷视频事件原视频
卡齐娜坐旅行者胡萝卜
苍井空做爰高潮A片久久直播
A片免费看视频
真实的和子乱拍在露脸线观看
美女脱了内裤让蛇钻进去视频
初中女生光溜溜身子视频大全
XNXXX日本👙👙16
乱伦黑人狂操
黄瓜视频.软件
玩弄小太正裸体屁股眼
SONE一229
王雨纯大尺度自慰流出
美女狂揉❌羞羞视频免费
美女露大乳揉下部㊙️18禁动漫
不抽插放在里面蹭蹭
中国🇨🇳老太交80
棚户区老肥熟老女人聊天
伊蕾娜自我奖励被发现
男同做爱
jk成人黄漫❌18禁网站
无尽❌裸体❌白丝拔萝卜
美女扒开㊙️让男人桶爽吻戏
中国妇科医院偷拍AⅤ
电子魅魔
贵妇丰满BBBBBwHD
高清🈚码🔞❌♋免费漫画软件
佐助×鸣人18禁漫画
18小泬破白浆啪啪直播
17.c蘑菇视频18禁白浆
散兵被空扒开腿做❌同人文
小乔跪着撅着白嫩光屁股被打作文
男男GayXXX军人呻吟小说
👙给我揉搓游戏
赵露思裸体㊙️无遮挡
成年91女友模拟器9
动漫🚫18涩涩动漫人
100%无遮挡裸体美女视频
免费无遮挡🔞视频网站黑桃
91❤口爆吞精国产水多多
樱桃视频♥成人app♥i
国产成年妇视频
妲己被狂无码流出漫画
色多多app♥破解版汅下载
免费➕无码➕无套内谢软件
3D动漫精品蒂法一区二区免费
free性zoz0交体内谢nd视频
991在线无码精品㊙️人囗楼风
一边亲一边摸🐻免费观看
纲手爆乳被❌🔞本
网友评论 查看所有评论>>