(1分钟全面解析)JBO是什么意思安卓版v89.32.171.710.546.20.30-2265安卓网_新万博体育

新万博体育

图片
搜索
猫眼电影 融媒体矩阵
  • 山东手机报

  • 猫眼电影

  • 大众网官方微信

  • 大众网官方微博

  • 抖音

  • 人民号

  • 全国党媒平台

  • 央视频

  • 百家号

  • 快手

  • 头条号

  • 哔哩哔哩

首页 >新闻 >社会新闻

傅聪团队新作:OnePiece!通用生成式推荐模型新范式

2025-10-28 00:55:04
来源:

猫眼电影

作者:

蒲非

手机查看

  猫眼电影记者 颜宇峰 报道Q8X2R7L1T4J5M9B6W3

投稿作者:OnePiece 团队

生成式推荐无疑是当前推荐系统领域最热门的方向,也是互联网应用中最前沿的研究主题之一。

从技术路径来看,生成式推荐主要沿着两大方向展开:一是基于大语言模型的推荐方法(LLM as Recommender),二是以生成式方式训练推荐模型(Generative Recommender)。

然而,在真实业务场景中,由于线上服务对成本极为敏感,LLM as Recommender 的落地仍面临显著挑战。这主要源于大语言模型在推理时通常需要大量显卡资源,且响应延迟较高,难以满足大规模推荐系统对高并发和低延时的严格要求。

另一方面,生成式推荐模型虽然在效率上更具优势,却难以具备类似大语言模型的推理能力。这主要是因为典型的生成式推荐模型通常基于用户历史行为序列进行训练,而该序列往往表示为一组物品 ID 序列:[item-1, item-2, item-3, …]。可以说,物品 ID 构成了推荐系统特有的“语言体系”。大语言模型之所以能够模仿人类的推理过程,很大程度上依赖于文本作为信息媒介,从而逐步解决问题。但在仅由 ID 构成的语义空间中,我们难以构造类似的“思维链条”来引导模型执行复杂推理,更无法像大语言模型那样实施上下文工程。

此外,传统生成式推荐模型(如 SasRec)通常仅接受物品 ID 或语义 ID 作为输入,不支持多模态或手工特征的引入。这一限制使得推荐系统长期积累的“特征工程”经验难以发挥价值,同时也制约了模型效果的进一步提升。

在这一背景下,来自 Shopee 的傅聪技术团队联合人大高瓴学院提出了一种全新的生成式推荐模型——OnePiece 范式,这是业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架!

论文链接:http://arxiv.org/abs/2509.18091

该范式的核心创新包括三个方面:针对物品 ID 序列特点专门设计的上下文工程策略;基于隐式推理的块状推理(block-wise reasoning)技术;以及通过渐进式多目标训练强化推理过程监督的学习机制。

目前,OnePiece 已在 Shopee 个性化主搜索场景上线,并取得效果提升。这一实践不仅验证了生成式推荐在工业场景的可行性,更为构建通用生成式推荐模型迈出了关键性的第一步。

核心方法

LLM 的成功不仅仅源于其优秀的 scaling law,也源于上下文工程、推理能力。从真实系统应用角度思考,推荐模型需要实现极致的“性价比”,也就是实现一个大小适中,但能尽可能吸收 LLM 领域成功经验的模型。因此,生成式推荐模型不能过度依赖 scaling law,即膨胀模型参数来获取增量收益,也需要迁移上下文工程、推理等相关成功经验到推荐领域。

首先,从上下文工程角度看,研究团队主要利用的是 LLM 基于上下文工程的指令(prompt)做(test-time)few shot learning的能力。而 few shot learning 用大白话讲就是举例子,希望模型能获得举一反三的能力。而这种数据,后来也逐渐被固化到训练数据中,被称为 Instruct Following SFT。放到以 “item ID” 为语言体系的推荐数据上,可以举出的“例子”,就是一些用户可能会交互的“锚点物品序列”来实现。例如,在 Shopee Search 场景,他们把用户们在某个关键词下面的高频点击商品序列、高频下单商品序列,作为“样例”拼接在用户自己的交互序列之后,通过引入 domain expert knowledge 的方式引入一些特殊的 inductive bias。

他们提出了上下文工程框架不只有“锚点序列”,新万博体育:细节如下图:

其中:

Interation History(IH):就是常规理解的用户行为历史。

Preference Anchors(PA):根据工程师的领域知识,构造的锚点序列,辅助引导预测和思考方向。

Situational Descriptor(SD):一些表达场景或其它异构信息的特殊 token,一般放在序列末尾聚合信息,例如在搜索场用到的 user token、query token 等。

Candidate Item Set(CIS):潜在目标候选物品的集合,这个是 ranking 模式下特有的,也是相对于召回模式的优势所在,ranking 模式下,候选物品对模型可见,可提供新万博体育:上下文信息。

为了能够自然融合“特征工程”的知识,他们在每个 token 位置上叠加了 item ID 以外特征信息,用简单的 adapter(MLP)来压缩到一个 token 位置上:

其次,新万博体育:推理,他们参考了近期在 LLM 领域开始有关注度的一个话题“隐式推理”。顾名思义,这种推理方式不是在文本上将思考过程描述出来,而是在隐藏表征空间(latent space)内进行推理。具体来说,就是每一步推理的时候,都直接把上一步输出的 item latent embedding 信息直接复制,放到输入序列后面,让 transformer 继续运算:

这样的推理技术的好处是,可以用极少的 token 完成思考过程,对在线服务几乎不增加负担。

最后,他们也发现隐式推理的一个明显的短板,那就是推理过程不受监督。因为隐式推理是直接将模型的输出和输入循环对接到一起,他们就没办法控制中间的推理过程,也就不知道模型在想什么,所以,他们定义了一种渐进式的监督训练方式。通过利用推荐系统丰富的用户反馈来为隐式推理提供过程监督,例如用户的点击、加购物车、下单行为:

值得注意的是,在推理的过程中,他们要求“前面的思考步骤”看不到“后面的思考步骤”,所以形成了上图中的 attention mask。同时,为了增加推理的信息处理带宽,避免出现单 token 推理的信息瓶颈,他们同时选择前文中的多个 token 向后进行“推理”。

实验效果

为了深度分析 OnePiece 的效果,研究团队进行了详细的对比和 Ablation。

从 Table2 中可以看到,Shopee 的 DLRM 基线(传统深度学习推荐模型)是一个很强的 baseline,naive 的生成式推荐是难以 PK 的。

进一步地,PA 是通过上下文工程引入额外的 domain knowledge,这种手法是模型backbone 无关的,HSTU 和 ReaRec 都可以从中受益。

OnePiece 相对于ReaRec+PA 的提升,主要来源于 block-wise reasoning 带来的信息带宽收益和渐进式的训练策略。

从 Table3 中可以看出,side info 对模型效果有巨大影响。此外,延长、优化 PA 序列呈现了一定程度的 scaling law,SD token 对收拢、聚合全局信息有重要作用,上下文工程框架中的每个组分都能够提升效果。

表 4 和 5 说明双向注意力在搜推广范式下更有优势。这其实比较容易理解,目前主流的搜推系统的用户交互模式依然是“一次请求返回一个页面”的方式,GR 模型不会依赖自己生成的 token 逐步解码,每次请求来了以后,生成的过程都是“一锤子买卖”。因此,不存在解码性能压力的前提下,对 pre-filling 部分的序列施加双向注意力可以更好的聚合信息。

此外,多步推理有 scaling 的效果,但效果逐渐收敛。渐进式引导相比于只监督最后一步更有效。值得注意的是,对于 ranking 模式下,candidate item 在attention mask 内互相“可见”非常重要。

研究团队在 Shopee 主搜场景进行了实验,在召回阶段和 prerank 阶段两个正交的实验层进行了在线 AB 实验。

在召回阶段,他们将 OnePiece 召回替代了原有的 DeepU2I 召回,取得了 1.08% 的 GMV/user 增长;在 prerank 阶段,他们用 OnePiece ranking model 替换了原有的 DLRM model,取得了 1.12% 的 GMV/user 增长和 2.9% 的广告收入增长,可以说是相当大幅度的提升。

值得注意的是,他们对 OnePiece 召回进行了深度数据分析拆解:

“新上马”的 OnePiece 召回,相对于其它召回路来说,可以说是碾压式覆盖。通过优化、平衡上下文工程中的 IH 和 PA 序列,OnePiece 在覆盖了文本召回曝光的 60%+ 商品的同时,覆盖了个性化导向召回(如 SwingI2I)的 70%+。这在以往的召回迭代的经验下是几乎不可能的事情,以前要么是侧重个性化但相关性不足、损伤体验,要么是侧重相关性但个性化不足,损伤效率指标。相比于DLRM 的 U2I 召回,OnePiece 贡献了 10% 的独立曝光和 5.7% 的独立点击:

这说明 OnePiece 选出来的内容,通过了下游粗排、精排、重排的重重考验,获得了用户的认可,在 Explore&Exploit 这个推荐经典问题上实现了难以置信的平衡,证明了推理模型的强大外推能力。

未来工作

研究团队表示,OnePiece 是他们在 One For All 的通用推荐模型上的一次初步探索,证明了可以通过特殊的上下文工程和推理模式,引导模型的预测方向。OnePiece 1.0 证明,“提示词优化”可能会成为搜推广技术栈下的一个全新方向,OnePiece 2.0 将会在 General Recommender Model 的探索上更进一步,尝试用一个模型来建模多场景和多召回策略:

此外,OnePiece 1.0 虽然挖掘出了生成式推荐 style 的新型推理框架,但它也有着显而易见的劣势,即推理步骤和渐进多任务系统的绑定,研究团队会探索可变长的推理形态,充分挖掘序列推荐下真正的 test time scaling law。

新万博体育:详细内容,请查看原论文。

??时事1:尊龙凯时ag旗舰厅官网

??10月28日,申城迎来“五一”假期返程高峰,

  凶禽抖动,浑身发光,彻底暴怒,接连吃亏,让它凶气缭绕,开始追杀两头异兽。

,赢博平台怎么样。

??10月28日,家政养老继续教育受欢迎 上海97名“阿姨级”大学生收获高级工证书,

  今年是我市市县乡三级党委集中换届之年,按照市委安排部署,我市的乡镇党委换届工作从7月启动,经过认真筹备、精心组织实施,到9月2日前全市所有乡镇都已经完成党委换届工作。9月14日中组部举办了第一期全国新任乡镇党委书记示范培训班,省组部对全省乡镇党委书记进行了培训。按照中组部、省组部要求,为进一步加强新一届乡镇党委班子领导干部培训工作,今天我们举办新任乡镇党委领导干部培训班,对全市新进乡镇党委班子的184名领导干部进行培训。参加培训班的各位同志,大多数在 岁以下,是乡镇工作的生力军。在此我对各位参加这期培训班表示热烈的欢迎,对各位能够进入乡镇党委班子表示热烈的祝贺。下面,我讲3点意见。

,bpb体育,365bet在线注册,线上彩票正规渠道。

??时事2:爱游戏app官方下载

??10月28日,民进党当局称对岛内民众组团赴陆旅游“有条件松绑” 国台办回应,  总结来看,今年高考期间南北方不少地区考生都免不了冒雨“赶考”了,建议受影响地区考生提前出发,关注临近预报、预警信息,做好防护;同时及时调整好心态,尽量降低天气对考试状态的影响。,互博国际,果博手机版下载,ayx官网买球。

??10月28日,黄河壶口瀑布现金流飞瀑景观,

  半个月后,一群孩子嗷嗷直叫,共有十几人骑上了独角兽,可以驾驭了,前提是要送上大量的浆果,好生喂养它们。

,立博直播视讯,银河网,头头官方app下载。

??时事3:皇冠app哪里下载

??10月28日,冬季旅游欣欣向荣 “冰雪+”新产品向“新”力增强,

  3、 小班额,便于管理,有利于学生水平的提高。

,kaiyun登录入口登录,百家乐网页下载,必威西汉姆网页。

??10月28日,中新健康丨武汉生命健康产业规模突破4800亿元,

  宛如一头猛犀撞在了山岩上,轰隆作响,令地面飞沙走石,烟尘冲天。

,大发888赌博,海洋之神8590,哪个平台可以赌足球。

??时事4:新美高梅

??10月28日,黄河流凌簇拥碰撞 奏响“大合唱”,

  那么,如何才能拯救我们的地球妈妈呢?你们知道全国每人每天节约一张纸,一年就可以节约多少张纸吗?是4745忆张纸。一年就可以少砍伐158,6666万棵树。这数字是多么惊人啊!从这个意义上来说,节约用纸也就是保护森林。你们知道吗?八千年前,全球森林覆盖面积约占地球陆地面积的一半,可是今天,残存的原始森林只占地球陆地面积的7﹪,我们国家更少,原始森林面积只占国土面积的2﹪。目前,每两秒钟,地球上就有足球场那么大一块森林消失。为了防止地球沙漠化,所以请大家一方面要植树造林,一方面要保护花草树木,节约用纸。我们在用纸时,用完一面不要扔掉,背面还可以打草稿。做了草稿纸之后,还可用来练毛笔字,可以用来折纸。即使是废纸,也还能送到造纸厂循环利用。

,火狐体育平台ios,世界杯投注金额,真人代替国际象棋视频。

??10月28日,重磅政策频出 完善基础制度护航房地产发展,

随着互联网的快速普及,各种商业信息的迅速传播,人们的消费观念觉发生改变,让无数人陷入了“消费主义”的浪潮之中,为了满足自 己对于物质方面的需求,让许多人开始毫无节制的“提消费”,导致自己的支出远远超过了现有的收入,但又无法克制心里的“享乐”行为,开始通过各种渠道借钱消费,有许多人甚...

,果盘游戏,澳门威斯尼斯人4832,博狗88。

【外媒:波兰外长称或将关闭俄罗斯驻波剩余领事馆】

【2023年安徽实际对外投资总量突破20亿美元】

责编:姚灵犀

审核:王文艳

责编:乌莎

相关推荐 换一换