news 2026/5/5 7:28:21

Seeing Beyond Redundancy Task Complexity‘s Role in Vision Token Specialization in VLLMs

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Seeing Beyond Redundancy Task Complexity‘s Role in Vision Token Specialization in VLLMs

Seeing Beyond Redundancy: Task Complexity’s Role in Vision Token Specialization in VLLMs

Authors:Darryl Hannan, John Cooper, Dylan White, Yijing Watkins

Deep-Dive Summary:

论文总结:超越冗余——任务复杂度在 VLLM 视觉 Token 特化中的作用

摘要

视觉大语言模型(VLLMs)在视觉能力上始终滞后于其语言能力。研究表明,VLLM 在处理细粒度视觉信息或空间推理任务时表现不佳。本文旨在探究视觉信息在模型中的处理方式及被丢弃的规律。研究引入了一个合成基准数据集和一套衡量视觉冗余的指标,分析了不同复杂度的任务对视觉压缩的影响。研究发现,任务复杂度与视觉压缩之间存在紧密联系:高复杂度的视觉数据对于改变 VLLM 的视觉表示分布并提升其在复杂任务上的性能至关重要。

2. 背景与相关工作

视觉大语言模型 (VLLMs):与对比学习模型(如 CLIP)不同,VLLM 通过自回归方式预测下一个 Token。模型通常将图像嵌入E ( i ) ∈ R N i × d \mathbf{E}^{(i)} \in \mathbb{R}^{N_{i} \times d}E(i)RNi×d与文本嵌入E ( t ) ∈ R N t × d \mathbf{E}^{(t)} \in \mathbb{R}^{N_{t} \times d}E(t)RNt×d连接后通过解码器处理。

视觉 Token 压缩与冗余:现有研究表明 VLLM 并不需要所有的视觉 Token。例如,在 LlaVA 中随机删除 95% 的 Token 对性能影响极小。本文不仅利用这种冗余,还通过研究 Molmo 和 Llama 3.2 等最新模型,探索视觉信息如何在模型中传播。

4. 实验

4.1 零样本分析 (Zero-shot Analyses)

研究选取了 Molmo 和 Llama 3.2。两者架构略有不同:Molmo 采用全模态联合注意力,而 Llama 3.2 采用交叉注意力。

数据集:

  • 合成数据集:在白色背景上放置不同形状、颜色、大小的 2D 物体,数量从 1 到 200 不等,以便精确控制复杂度。
  • MSCOCO 子集:使用真实世界图像验证趋势。

Token 压缩分析:

  • 在 Molmo 中,早期层将能量分散在大量视觉 Token 中,中间层重新浓缩信息,末尾层再次分散以丢弃冗余信息(见图 1)。
  • 物体数量与低压缩率强相关(见图 2),表明拥挤的场景需要更多 Token 来表示。
  • 在 COCO 数据集上(见图 3),物体类别的多样性和大小差异是降低视觉压缩的主要特征。


图 3:Molmo 在 COCO 数据集上压缩指标与视觉属性之间的 Spearman 相关性。

探测实验 (Probes):

  • 信息转移:实验发现文本 Token 能够高度预测视觉属性(见图 4),表明视觉信息在第一层之后就迅速整合到了文本空间中。
  • 冗余性:几乎所有 Token 位置都能准确预测物体数量,这表明模型中存在极高的视觉冗余。
  • 特征分化:某些特征(如“主色调”或 COCO 中的“主超级类别”)在不同层表现出不同的预测能力,说明模型在不同阶段侧重于不同的视觉特征。


图 4:Molmo 在合成数据集上对各种视觉属性的线性探测性能。


图 5:Molmo 在 COCO 数据集上对各种视觉属性的线性探测性能。

Original Abstract:Vision capabilities in vision large language models (VLLMs) have consistently lagged behind their linguistic capabilities. In particular, numerous benchmark studies have demonstrated that VLLMs struggle when fine-grained visual information or spatial reasoning is required. However, we do not yet understand exactly why VLLMs struggle so much with these tasks relative to others. Some works have focused on visual redundancy as an explanation, where high-level visual information is uniformly spread across numerous tokens and specific, fine-grained visual information is discarded. In this work, we investigate this premise in greater detail, seeking to better understand exactly how various types of visual information are processed by the model and what types of visual information are discarded. To do so, we introduce a simple synthetic benchmark dataset that is specifically constructed to probe various visual features, along with a set of metrics for measuring visual redundancy, allowing us to better understand the nuances of their relationship. Then, we explore fine-tuning VLLMs on a number of complex visual tasks to better understand how redundancy and compression change based upon the complexity of the data that a model is trained on. We find that there is a connection between task complexity and visual compression, implying that having a sufficient ratio of high complexity visual data is crucial for altering the way that VLLMs distribute their visual representation and consequently improving their performance on complex visual tasks. We hope that this work will provide valuable insights for training the next generation of VLLMs.

PDF Link:2602.06914v1

部分平台可能图片显示异常,请以我的博客内容为准

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/3 5:03:16

收藏级大模型入门详解|小白程序员必看,从基础到实战一文吃透

大模型作为当下AI领域的核心热点,是程序员进阶、小白入门AI的必学知识点。它本质是包含超大规模参数的神经网络模型,核心训练分为预训练和微调两大阶段,其“大”体现在参数规模、架构规模、训练数据和算力需求四个核心维度。按数据类型可分为…

作者头像 李华
网站建设 2026/5/1 9:44:44

基于遗传算法的配送中心与中转站双层选址优化附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室👇 关注我领取海量matlab电子书和…

作者头像 李华
网站建设 2026/5/2 9:12:02

黑客的HTTP指南:深入解析每个请求与响应的技术细节

“漏洞赏金训练营 #10:黑客的HTTP指南——解码每个请求和响应” 每一次点击都是一场对话。作为一名黑客,你的工作需要流利地说HTTP这门语言,倾听服务器的秘密,并精心构造完美的谎言以突破其防线。 在你启动代理工具或编写任何一条…

作者头像 李华