当前位置:首页 → 电脑软件 → 哈里斯副手曾在中国任教 → 在线国产精品 v2.394 最新版
v7.882.9438 安卓版
v3.18.1426 PC版
v4.816.6575.204719 IOS版
v1.953.5264 安卓最新版
v7.514.3552 IOS版
v1.908.7036.374191 最新版
v7.593.7798 最新版
v8.294.9547 IOS版
v7.532 安卓免費版
v9.972.7991 安卓漢化版
v4.125.9267.982539 IOS版
v8.394.980.393847 PC版
v2.632 安卓版
v7.8.5300.584750 安卓免費版
v4.125.2547 PC版
v6.423.1997.552394 安卓版
v7.895 安卓免費版
v3.685.1490.546246 IOS版
v7.309.9309.632219 最新版
v8.51 PC版
v8.435.4081.314270 安卓漢化版
v8.83.2397 最新版
v6.881 IOS版
v3.475.5020 安卓免費版
v9.643.356 安卓最新版
v6.804.4239 IOS版
v3.5.1990.859656 安卓漢化版
v5.621.2969.287915 安卓最新版
v4.854 最新版
v1.511.7371.737564 安卓免費版
v7.581.260 最新版
v4.318 安卓最新版
v7.858.7761 IOS版
v7.379 安卓免費版
v8.937.152.98868 安卓最新版
v1.105.8630.790520 最新版
v6.791.8528.785532 安卓最新版
v8.405.5968.643122 安卓版
v2.163.2389.600148 IOS版
v4.131.7998 最新版
v1.678.4421 IOS版
v7.223 安卓版
v3.37 最新版
v1.362.2971.405141 PC版
v1.713 最新版
v3.721.4798.113475 安卓版
v7.706.3602 安卓漢化版
v7.318.2807 安卓版
v1.109.101 安卓漢化版
v2.160.7723.831216 安卓版
v9.278.4293.844094 IOS版
v9.338 最新版
v4.547.585.692097 最新版
v4.390.1097.171862 最新版
v9.927.3958 安卓免費版
v1.943.230.71793 最新版
v4.552.460.76150 IOS版
v7.494 最新版
v4.777.997.939803 安卓版
v2.344.7785.753373 安卓版
v5.121.9222 最新版
v2.230.8380.115497 安卓最新版
v8.18.7978.853223 安卓版
v2.458 安卓免費版
v2.265.7801.808504 安卓漢化版
v4.967.3933.152053 安卓漢化版
v2.833.9141 最新版
v6.964 安卓最新版
v4.946 安卓版
v3.755.2206 PC版
v9.835.9017 安卓漢化版
v6.106.3260.844129 安卓版
v2.314.5575.403679 安卓最新版
v8.984.6405 PC版
v5.407.6390.397285 安卓最新版
v4.617.1704.710917 安卓免費版
v3.139 安卓最新版
v9.320.3915.113085 安卓版
v5.769.2442.521244 最新版
v3.761.1529.302389 最新版
在线国产精品
近一年以来,统一理解与生成模型发展十分迅速,该任务的主要挑战在于视觉理解和生成任务本身在网络层间会产生冲突。早期的完全统一模型(如 Emu3)与单任务的方法差距巨大,Janus-Pro、BAGEL 通过一步一步解耦模型架构,极大地减小了与单任务模型的性能差距,后续方法甚至通过直接拼接现有理解和生成模型以达到极致的性能。
香港中文大学 MMLab 和美团的研究者相信,在不久的将来统一模型的性能一定能够达到单任务的水平,但同时也引起了他们的思考,目前通过拆解架构换取性能提升的方式真的是正确的吗,它是否背离统一模型的初衷,它能够提升性能的内在原因又是什么,这种方式真的是统一模型必须的吗?
「统一模型的初衷」以及「 架构解耦的缺点」
统一理解生成模型的初衷是为了通过透明化、合理化的图文交错思考过程,提高单任务的性能,例如让模型走迷宫时统一模型可以生成每一步对应的图像,可以在模型做数学题的时候给图像画上辅助线,或者是在生成一张图像的时候边画边思考有没有生成不合理的地方并且自动修正,这些都是 Uni-MMMU 等当前统一模型基准所关注,也是它本身被独立成一个领域的初衷。
再回到架构解耦的模型,例如 BAGEL 上,它本身如果要实现图文交错思考,需要经历隐空间解码到文字或者像素空间,然后再编码到隐空间的复杂过程,两个任务也几乎不在同一个模型空间中,具有计算开销大、信息丢失两大问题。虽然在当前情况下相比于其可观的性能,这个问题似乎并不显著,但是研究者认为随着研究的进行,这会是一个很大的问题。
AIA: 模型架构解耦不是统一模型必须的
为了探究清楚「架构解耦带来性能提升的内在原因」以及「探索不使用架构解耦的前提下提升模型性能的方式」,香港中文大学 MMLab 和美团联合推出了 AIA。
论文标题:Architecture Decoupling Is Not All You Need For Unified Multimodal Model论文链接:https://arxiv.org/abs/2511.22663代码:https://github.com/zhengdian1/AIA网页:https://github.com/zhengdian1/AIA-project
研究者首先通过研究不同架构的统一模型在每一层网络中跨模态交互的强度,他们惊讶地发现不管如何进行模型架构解耦,理解和生成任务在同一层网络中始终呈现负相关的关系,同时进一步验证了这个现象与输入的模态、长度和类别都没有关系,这说明是模型自发在学习如何合理地分配两个任务在每一层中的占比,从而 「缓解冲突」,这又说明架构解耦本质上并没有解决任务之间冲突的问题。
研究者进一步在最后一列可视化了现在单任务 SOTA 的模型的多模态交互模式(HunyuanImage-3.0 虽然是统一模型,但更侧重于生成效果),结果发现随着模型解耦程度的增强,其对应的跨模态交互模式会趋向于单任务的表现,这也是能够实现性能提升的主要原因。
基于这个发现,研究者设计了Attention Interaction Alignment (AIA) 损失,通过将单任务模型的跨模态交互模式作为学习目标,在训练的过程中显式地约束统一模型的交互模式。
AIA 效果如何?
研究者在 Emu3 和 Janus-Pro 这两种完全统一架构、轻微模型解耦架构上进行了实验,如下表所示,结果表明本文的方法能够在没有任何其他 trick 的情况下提升这些模型的性能,减小了与更高解耦程度模型的差距。
同时,研究者给出了使用 AIA 损失之后 Emu3 和 Janus-Pro 跨模态交互模式曲线变化,可以发现加入了 AIA 损失之后,两个模型的交互曲线都向单任务模型的表现靠近了,既证明了 AIA 损失的有效性,同时也说明了模型架构解耦不是唯一能够提高统一模型性能的方式。
当然,研究者也承认在目前情况下完全统一的方法和高解耦程度的模型之间存在很大的差距,但正如 Emu3.5 的出现,他们认为这个差距会越来越小。因此,研究者呼吁新万博体育:的人抛开表层的框架和数据配比,深入研究统一模型的任务冲突问题,寻找更优的解法。
AIA 好训吗?
由于 Emu3 只有预训练 (PT) 阶段是统一训练的,因此研究者在其 PT 权重上进行微调,而 Janus-Pro 给的是最终 SFT 微调后的权重,研究者在此基础上进行后训练。
研究者通过调整 AIA 损失与 next-token-prediction (NTP) 损失的比重来测试其微调的敏感度,结果发现训练 Emu3 的时候由于其预训练知识比较薄弱,AIA 损失在一个很大的范围内都能达到稳定收敛的效果。而在 Janus-Pro 中,由于其本身预训练知识很强,AIA 的加入非常容易影响模型训练,但在合适的比重情况下仍然能够达到不错的效果。
AIA 有什么优势?
AIA 损失的加入可以一定程度上减少现在常见的数据配比工程问题,本文的方法在生成与理解数据配比在 1:1 的情况下能够达到更好的效果,这说明在一定程度上两个任务的训练不再是冲突的,产生了协同优化的效果。
统一模型训练的正确道路是什么?
通过结合现在所有统一模型训练的问题以及本文的实验分析,可以发现不管怎样解耦模型,其始终会在统一训练的过程中动态分配不同任务在同一层的权重来缓解冲突,那这是否实际上代表了统一模型的正确行为?
另一条统一路径是移除所有可以用来区分任务的线索(即采用统一分词器、消除任务相关特殊 token、使用交错数据数据输入),迫使模型只能从输入中学习真正的统一空间。虽然这种方法或许可以解决任务间的负相关问题,但也会显著增加训练难度。
未来展望
AIA 迈出了统一模型训练原理分析的第一步,研究者希望能够有新万博体育:志同道合的研究者加入这个领域的探索。统一模型现在的理论、架构都远远没有达到成熟,需要大家共同进行探索。同时研究者也希望大家能够更加关注统一模型真正的意义,不要一味地关注当前单任务基准上的性能。
相关版本
多平台下载
查看所有0条评论>网友评论