当前位置:首页 → 电脑软件 → 在一声声猴哥哥中无法自拔 → 99乐精品视频精品视频 v1.648.6624.9696 安卓版
v2.972.6749 PC版
v7.527.7870 安卓免費版
v3.416.9724.908729 最新版
v9.88.7143.488284 安卓漢化版
v6.690 安卓漢化版
v7.669.602 安卓最新版
v5.757 最新版
v5.936.7610 安卓漢化版
v2.964.892.545425 安卓最新版
v3.779 安卓版
v4.38.529.269760 安卓最新版
v6.193 IOS版
v7.635 最新版
v8.634.5780.634677 安卓免費版
v7.282.2157 PC版
v4.299.9651.552924 安卓免費版
v1.600.4207.78937 IOS版
v1.99.5496.138812 IOS版
v3.116.3525 安卓最新版
v2.857.3645 安卓版
v4.441.5229 PC版
v7.765.6887 PC版
v1.631.9696.374962 安卓漢化版
v7.564.4177 安卓版
v7.873 PC版
v2.803 IOS版
v7.612.9221.865448 安卓最新版
v9.182.5499 安卓最新版
v7.554.377.599120 安卓免費版
v3.725.4044 安卓版
v8.190.7678 安卓漢化版
v1.576.1148.619220 安卓漢化版
v2.197 安卓免費版
v6.482.8833.494644 安卓最新版
v4.497 安卓漢化版
v5.731 安卓最新版
v2.357.3428 最新版
v5.889 PC版
v9.35.1434.296590 最新版
v3.545.8718 安卓免費版
v2.683.6854 安卓免費版
v5.985.6168 PC版
v6.922.4203.513089 PC版
v5.912 PC版
v2.423.7145.322356 安卓版
v8.205.257 PC版
v8.426 安卓免費版
v8.331 PC版
v8.80.1857 IOS版
v9.991.4627.786189 安卓版
v8.389 最新版
v5.779.71 安卓最新版
v2.444.4255 安卓免費版
v2.372 PC版
v1.911.1390.993461 最新版
v9.201.8841.652205 安卓最新版
v4.203 PC版
v8.901.5479.316066 最新版
v7.808 最新版
v2.108.6079.934719 最新版
v1.899.6199 PC版
v7.484.7418 安卓漢化版
v1.480.8200 安卓免費版
v5.419.3730.687848 最新版
v5.870.526 安卓免費版
v3.65.3228 最新版
v1.611.1061.835502 最新版
v6.672.8330.956597 安卓版
v2.931.9986.501308 安卓最新版
v6.255.3203.906072 IOS版
v4.8 安卓漢化版
v4.643.5838.572220 最新版
v6.635 安卓漢化版
v3.904 最新版
v3.700 安卓版
v9.744 安卓漢化版
v7.759.3279.858614 安卓漢化版
v1.270 IOS版
v4.253.6255.168890 IOS版
v1.99.7835.941712 PC版
99乐精品视频精品视频
新智元报道
编辑:LRST
【新智元导读】在NeurIPS 2025论文中,来自「南京理工大学、中南大学、南京林业大学」的研究团队提出了一个极具突破性的框架——VIST(Vision-centric Token Compression in LLM),为大语言模型的长文本高效推理提供了全新的「视觉解决方案」。值得注意的是,这一思路与近期引起广泛关注的DeepSeek-OCR的核心理念不谋而合。
在处理短文本时,大语言模型(LLM)已经表现出惊人的理解和生成能力。但现实世界中的许多任务——如长文档理解、复杂问答、检索增强生成(RAG)等——都需要模型处理成千上万甚至几十万长度的上下文。
与此同时,模型参数规模也从数十亿一路飙升至万亿级别。
在「上下文长度激增」与「模型参数量膨胀」的双重挑战下,Token压缩不再是优化项,而是必需品。
若不能有效缩减输入规模,即便最强大的大语言模型,也难以高效处理我们需要它分析的海量信息。
南京理工大学、中南大学、南京林业大学的研究人员提出VIST(Vision-centric Token Compression in LLM)框架,正是为了解决这一痛点。
论文链接:https://arxiv.org/abs/2502.00791
研究团队早在一年多以前NeurIPS 2024就开始探索——如何让模型像人类一样,以视觉的方式更高效地理解长文本。
论文链接:https://arxiv.org/pdf/2406.02547
人类阅读文章时,不会逐字读完每一个词。
「的」「了」「和」这些功能性高频词,几乎是被大脑自动略过的。真正让我们停下来的,是那些承载意义的低频词——名词、动词、数字等。
VIST 的核心思想,就是让大模型也具备这种「选择性阅读」能力。
它设计了一种模仿人类「快–慢阅读通路(Slow–Fast Reading Circuit)」的视觉化压缩机制,让大模型在理解长文本时,既能快速扫读,又能深入思考:
快路径(Fast Path):将远处、相对次要的上下文渲染为图像,由一个冻结的轻量级视觉编码器快速提取显著性语义;
慢路径(Slow Path):将关键的近处文本直接输入 LLM,用于深层推理与语言生成。
这种「视觉+语言」的双通道协作,就像人类的眼睛与大脑——一边扫视全局,一边聚焦要点,深度思考。
VIST让模型真正具备了「像人一样速读」的能力。
凭借这一设计,在处理相同文本内容时,VIST所需的视觉Token数量仅为传统文本分词所需Token数量的56%,内存减少了50%。
用「视觉压缩」解锁长文本理解
早期的LLM主要通过tokenizer把文本拆分的离散token输入给LLM去处理,这种范式带来了很多好处如高度语义化。
但是已有研究发现,经过大规模图文配对数据预训练,CLIP等视觉编码器能够自发掌握 OCR 能力,这使它们可以直接理解文本图像内容,为长文本的视觉化处理提供了强大工具。
VIST则借鉴了人类高效阅读的技巧,提出了一种全新的快–慢视觉压缩框架,用视觉方式处理长文本,让模型既能快速扫读,又能深度理解。
快路径(Fast Path)
将次要的长距离上下文渲染成图像,由轻量级视觉编码器处理;
通过 Resampler 将视觉特征进一步压缩为4倍;
压缩后的视觉特征再通过cross-attention与LLM的主输入整合。
慢路径(Slow Path)
对近处或核心文本直接交给LLM处理,进行深度推理和语言生成。
这种「扫视远处,专注近处」的方式,模拟了人类阅读的自然策略,让模型在长文本场景下既高效又精准。
概率感知视觉增强
教模型学会略读
虽然视觉编码器(如 CLIP)非常强大,但它们主要在自然图像上训练,对于渲染文本的理解能力有限。而且,长文本中往往充斥大量冗余信息,如果不加选择地处理,浪费算力,还会被干扰得抓不住重点。
为此,VIST引入了一个巧妙的机制——概率感知视觉增强(PVE, Probability-informed Visual Enhancement),教模型「略读」,抓住关键信息,忽略冗余词。
在训练中,PVE采用基于频率的屏蔽策略(Frequency-based Masking Strategy)把高频但信息量低的词(如英文中的 「the」、「with」)掩码而重点保留低频、高信息量词如名词、动词、数字等核心内容。
这些经过语义优化的文本嵌入(embeddings)有效指导Resampler从文本图像中提取最重要的语义信息,让视觉压缩模块更高效、更精准。
视觉压缩的极大潜力
在开放域问答(Open-domainQA)任务以及11 个 In-Context Learning(ICL)基准任务上,VIST 显著优于基于文本编码器的压缩方法 CEPE。
即便在极端条件下——所有篇章仅通过视觉编码器处理——VIST仍能在开放域问答任务中达到与TinyLlama相当的性能,充分显示了视觉压缩在长文本处理中的可靠性。
此外,VIST在处理相同文本内容时,所需视觉 Token 数量比传统文本 Token 少56%(压缩比约为2.3,从 1024 个文本Token压缩到448个视觉 Token),同时显存使用减少50%,极大提高了计算效率。
让大模型「用眼睛读文字」
VIST利用轻量级视觉编码器,将冗长的上下文信息压缩处理,为大语言模型提供了一条高效、低成本的新路径。
更妙的是,视觉编码器还能充当视觉文本分词器(Visual Text Tokenization),带来四大优势:
1. 简化分词流程传统文本分词器依赖复杂规则和固定词表,通常涉及近十步人工预处理(如小写化、标点符号处理、停用词过滤等)。
视觉编码器直接将渲染后的文本视作图像输入,无需繁琐预处理,处理流程更直接高效。
2. 突破词表瓶颈传统分词器在多语言环境下容易受词表限制影响性能,而视觉编码器无需词表,统一处理多种语言文本,大幅降低嵌入矩阵和输出层的计算与显存开销。
3. 对字符级噪声更鲁棒视觉编码器关注整体视觉模式,而非单个 Token 匹配,因此对拼写错误或低级文本攻击具备天然抵抗力。
4. 多语言高效性尽管本文主要针对英文,视觉文本分词器在其他语言中同样高效:与传统文本分词相比,可减少62%的日文Token、78%的韩文Token、27%的中文Token,在处理长文本时优势尤为显著。
结语与未来展望
VIST 展示了「视觉 + 语言」协作在大模型长文本理解中的巨大潜力:
它让大模型能够「像人一样读」,快速扫视冗余信息,同时专注于关键内容;
它为多语言、长文本、甚至多模态场景提供了高效处理方案。
未来,视觉驱动的 Token 压缩可能会成为长上下文 LLM 的标准组件。 随着模型规模不断增长,这种「先看再读」的策略,将帮助大模型在保证理解能力的同时,大幅降低计算成本,为多模态智能理解铺平道路。
参考资料:
https://arxiv.org/abs/2502.00791
相关版本
多平台下载
查看所有0条评论>网友评论