当前位置:首页 → 电脑软件 → 龙茅放量价格断崖式下跌 → 云韵被爆❌3D在线观看 v9.82.3502.234842 安卓漢化版
v3.980.4072 最新版
v6.680.8373.263441 PC版
v9.355.3606.208412 安卓最新版
v3.513.3152.286292 安卓最新版
v2.100 PC版
v1.151.4005.95328 安卓免費版
v2.458.7582.931543 安卓版
v9.219 PC版
v5.316.1381.158256 IOS版
v4.7.8968.795546 安卓免費版
v2.753 安卓最新版
v1.995.2473 安卓版
v2.693.9121 安卓免費版
v9.792.2423.732450 安卓免費版
v3.79 安卓最新版
v7.123.9650 安卓免費版
v2.239.9556 安卓最新版
v6.517.5940 最新版
v6.175.9606 PC版
v6.132.7004.924769 安卓漢化版
v2.280.3974.47615 安卓漢化版
v9.38.6244.445039 安卓免費版
v3.845.3820 PC版
v8.27.5457 安卓漢化版
v1.14.6157.640646 PC版
v2.832 最新版
v3.257.5306.559608 IOS版
v9.818.3102.849338 安卓最新版
v9.486.241.292020 安卓版
v9.286.8522.423423 安卓免費版
v2.546 安卓版
v9.987 安卓版
v3.665.7197.113291 最新版
v9.490 安卓最新版
v4.321.6262 IOS版
v4.993.1787.95464 安卓免費版
v6.257.6446.183867 安卓最新版
v2.406.4815.804004 最新版
v2.395.9950.583098 IOS版
v5.282.7207.962566 PC版
v5.129.5589 安卓免費版
v5.482.2294 安卓漢化版
v5.612.4311 安卓漢化版
v3.164.983 安卓版
v8.378 最新版
v9.674.337 安卓版
v8.63.7218.494416 安卓免費版
v3.391.6384.273154 安卓版
v3.420.8879.892231 IOS版
v9.408.8908.172303 安卓漢化版
v7.450.300.224996 安卓版
v5.479.2207.303486 安卓版
v6.243.1457.969449 安卓漢化版
v6.230.2853.274266 最新版
v4.610.5417.253773 安卓最新版
v4.81.9521.392298 最新版
v5.939 PC版
v6.557.711.554186 安卓漢化版
v3.430 安卓最新版
v8.399.1750.820006 安卓免費版
v6.468 安卓版
v4.367.5862 IOS版
v2.993.5344 安卓最新版
v7.128 PC版
v9.34 安卓漢化版
v7.424 安卓版
v9.556.9258.677769 安卓版
v1.432 安卓最新版
v4.747 安卓漢化版
v1.804.8821 PC版
v3.841.5287 最新版
v4.177.6129.53612 安卓漢化版
v5.582 PC版
v2.70 安卓版
v3.540.4511 安卓版
v6.473 安卓免費版
v1.114.7255 最新版
v8.266.9620.365344 PC版
v1.19.118.210354 PC版
v2.633 最新版
云韵被爆❌3D在线观看
RAG准确率提升10.6%,多项基准拿下新SOTA!
ACL 2025最新研究提出Lexical Diversity-aware RAG(DRAG)框架,首次系统性地将词汇多样性引入RAG的检索与生成过程,提供了一个轻量、通用且易扩展的解决方案。
在多项基准任务中,该方法带来了显著性能提升,尤其在HotpotQA上刷新了当前最优结果。
在大语言模型的浪潮下,Retrieval-Augmented Generation(RAG)已经成为提升模型事实性和时效性的重要手段。然而,现有方法普遍忽视了一个看似细微却极为关键的问题——词汇多样性(lexical diversity)。
同一个问题,不同的表达方式,往往让检索模型“晕头转向”,最终导致错误答案。
由此,来自北航、北大、中关村实验室的研究团队提出了这项最新工作,他们首次将“词汇多样性”引入检索增强生成的相关性评估过程,并通过新颖的风险稀疏校准机制解决了生成阶段被无关信息干扰的问题。
团队认为,该方法对信息检索、问答系统、专业领域大模型应用都具有重要价值。未来,他们计划进一步拓展该方法到新万博体育:专业场景,让大模型不仅能“读懂”,更能“理解”复杂的人类语言表达。
词汇多样性:RAG的隐形痛点
研究团队指出,现有RAG方法大多通过“单一标准”判断检索文档是否相关,但现实情况要复杂得多。如图所示,以问题“What is Hattie McDaniel’s occupation?”为例,其中的语义成分表现出不同程度“词汇多样性”:
不变词(Invariant):人名“Hattie McDaniel”一般不会变形;可变词(Variant):词语“occupation”可以对应“profession”“actress”甚至“Academy Award”;补充信息(Supplementary):答案可能依赖“American celebrity”等扩展语境。
这种词汇多样性往往导致模型错误地将部分相似但无关的文档判为相关,或者忽略了真正有用的信息。
两大关键创新
为解决“词汇多样性”带来的挑战,研究团队提出了该框架,核心在于两个互补模块:
1、Diversity-sensitive Relevance Analyzer(DRA)
传统检索相关性评估往往“一刀切”,把整体查询和检索文档进行比较。该方法则进一步拆解查询语义,针对不同成分采用差异化策略:
不变成分:如人名、地名等必须精确匹配的关键词,该方法强调其检索文档应与该成分严格匹配;可变成分:如“occupation”—“profession”,DRA借助LLM的语义扩展和分析能力,在检索时允许一定语义灵活性;补充成分:如“American celebrity”,该方法通过检索需求的明确程度来判断是否需要真正提供有用的补充证据。
在此基础上,该方法通过该模块对相似度检索结果进行重排序,输出一个更细粒度、多维度的相关性评分,避免检索时存在的“假阳性”和“假阴性”的常见问题。
2. Risk-guided Sparse Calibration
即使有了更精准的检索,生成阶段仍然可能“被干扰”。Risk-guided Sparse Calibration的设计灵感来自“风险控制”:它会实时监控每个生成token的“被误导风险”,并在必要时进行解码校准。
词汇风险(Lexical Risk):检测生成内容是否过度依赖低相关的词汇;注意力风险(Attention Risk):评估模型注意力是否集中在无关段落;预测风险(Prediction Risk):衡量当前预测是否与检索证据存在冲突。
RSC的独特之处在于它的稀疏性(sparse calibration):只对高风险token动态干预,而不会对全局输出强行重写,从而保证了生成质量与效率的平衡。
最终,DRA负责“挑选更靠谱的材料”,RSC负责“防止模型走偏”,形成了检索与生成环节的双保险,让RAG更稳健、更准确。
实验结果:显著超越现有方法
团队在多个开放域问答基准上验证了该方法:
其中,该方法在PopQA/TriviaQA(短文本问答):准确率分别提升4.9%和4.4%;HotpotQA/2WikiMultiHopQA(多跳问答):准确率均提升10.6%,展现出强泛化性;在ASQA(长答案生成):在str-em、QA-F1等指标上刷新SOTA。
不仅如此,该方法在不同类型、大小的模型上均表现出显著增益,如Llama2-7B, Llama2-13B, Qwen2-7B, Alpaca-7B和Mistral-7B等。
论文链接:
https://aclanthology.org/2025.acl-long.1346/代码(即将开源):
https://github.com/Zhange21/DRAG
相关版本
多平台下载
查看所有0条评论>网友评论