【论文笔记】VCoder: Versatile Vision Encoders for Multimodal Large Language Models

基本信息

标题: VCoder: Versatile Vision Encoders for Multimodal Large Language Models
作者: Jitesh Jain, Jianwei Yang, Humphrey Shi
发表: CVPR 2024
arXiv: https://arxiv.org/abs/2312.14233
GitHub: https://github.com/SHI-Labs/VCoder

基本信息

摘要

人类拥有非凡的视觉感知能力,即看到并理解所见,这帮助他们理解视觉世界并推理。

多模态大型语言模型(MLLM)最近在视觉-语言任务上取得了令人印象深刻的成果,这些任务包括视觉问答、图像标题生成、视觉推理和图像生成。

然而,当被要求识别或计数(感知)给定图像中的实体时,现有的MLLM系统却失败了。

为了开发一个准确的多模态MLLM感知和推理系统,我们提出使用Versatile enCoderVCoder)作为多模态MLLM的感知之眼。

  1. 我们将分割或深度图等感知模态输入到VCoder中,从而提高MLLM的感知能力。
  2. 我们利用COCO图像和现成视觉感知模型的输出,创建我们的COCO分割文本(COST)数据集,用于训练和评估MLLM在物体感知任务上的表现。
  3. 我们引入了评估MLLM在COST数据集上物体感知能力的指标。
  4. 我们提供了广泛的实验证据,证明了VCoder在物体级感知技能上优于现有的多模态MLLM,包括GPT-4V。

我们将数据集、代码和模型开源,以促进研究。

主要贡献

  • 我们提出使用额外的(感知)控制输入,并将其提供给通用编码器(VCoder),以提升物体感知性能。
  • 我们引入了COCO分割文本(COST)数据集,用于训练和评估多模态LLM系统在物体识别、计数和顺序预测等基本物体级感知任务上的表现。
  • 此外,为了量化MLLMs的物体感知能力,我们提出了计算计数得分(CS)、幻觉得分(HS)和深度得分(DS)。我们的实验表明,在COST数据集上进行验证时,VCoder适配的LLaVA1.5在所有指标上均优于基线MLLMs。

工作

COST 数据集

COST 数据集

我们将COCO中的图像、GPT-4中的问题和OneFormer的分割输出整合到问答格式中,用于训练和评估MLLLMs在物体识别任务上的表现。

我们还通过整合DINOv2 DPT的深度图输出,将COST扩展到物体顺序感知任务。

通过类似地整合其他模态(例如,关键点图),COST可以扩展到更多物体级任务。

VCoder

VCoder

  • <seg>: OneFormer 的分割图通过一个SegCoder(CLIP-ViT-L-336px)和一个两层MLP。
  • <depth>: DINOv2 DPT 深度图通过一个DepthCoder(CLIP-ViT-L-336px)和一个两层MLP。
  • <image>: 原图通过一个DepthCoder(CLIP-ViT-L-336px)和一个两层MLP。
  • <query>: 文本分词后嵌入。
  • LLM: Vicuna-1.5

Evaluation Metrics for Object Identification

尽管存在各种指标来衡量视觉-语言模型中的物体幻觉,但现有的指标在计算幻觉得分时都没有考虑明确的物体数量。

我们认为,MLLM返回的物体数量是评估物体识别性能时不应忽视的关键组成部分。

因此,我们提出使用两个指标来评估MLLM中的物体识别性能:计数得分(CS\mathbf{CS})和幻觉得分(HS\mathbf{HS})。

Evaluation Metrics for Object Identification

给定一个真实句子(GG)和一个MLLM预测的响应(PP),我们首先从两个文本样本中提取对象词(名词)及其对应的计数,并以字典形式表示,其中键为对象名词,值为对应对象的计数:

Gdict={OBJ1G:CNT1G;;OBJNG:CNTNG}Pdict={OBJ1P:CNT1P;;OBJMP:CNTMP}\begin{align*} G_{\text{dict}} &= \{\mathbf{OBJ}^G_1 : \mathbf{CNT}^G_1; \cdots; \mathbf{OBJ}^G_N : \mathbf{CNT}^G_N\} \\ P_{\text{dict}} &= \{\mathbf{OBJ}^P_1 : \mathbf{CNT}^P_1; \cdots; \mathbf{OBJ}^P_M : \mathbf{CNT}^P_M\} \end{align*}

其中NNMM 分别代表GGPP 中不同对象名词的数量。接下来,我们以GdictG_{\text{dict}}PdictP_{\text{dict}} 作为参考,对键的计数进行一对一匹配,以计算计数得分(CS\mathbf{CS})和幻觉得分(HS\mathbf{HS}):

CS=100Ni=1N{min(CNTiG,CNTiP)max(CNTiG,CNTiP)if I(OBJiG,Pdict)0otherwiseCS=100Mj=1M{1min(CNTjP,CNTjG)max(CNTjP,CNTjG)if I(OBJjP,Gdict)1otherwiseI(OBJ,D)={Trueif OBJ is in keys(D)Falseotherwise\begin{array}{l} \mathbf{CS} = \frac{100}{N} \sum_{i=1}^{N} \left\{ \begin{array}{ll} \frac{\min(\mathbf{CNT}_{i}^{G}, \mathbf{CNT}_{i}^{P})}{\max(\mathbf{CNT}_{i}^{G}, \mathbf{CNT}_{i}^{P})} & \text{if } I(\mathbf{OBJ}_{i}^{G}, P_{\text{dict}}) \\ 0 & \text{otherwise} \end{array} \right. \\ \mathbf{CS} = \frac{100}{M} \sum_{j=1}^{M} \left\{ \begin{array}{ll} 1 - \frac{\min(\mathbf{CNT}_{j}^{P}, \mathbf{CNT}_{j}^{G})}{\max(\mathbf{CNT}_{j}^{P}, \mathbf{CNT}_{j}^{G})} & \text{if } I(\mathbf{OBJ}_{j}^{P}, G_{\text{dict}}) \\ 1 & \text{otherwise} \end{array} \right. \\ I(\mathbf{OBJ}, D) = \left\{ \begin{array}{ll} \text{True} & \text{if } \mathbf{OBJ} \text{ is in keys}(D) \\ \text{False} & \text{otherwise} \end{array} \right. \end{array}

计数得分(CS\mathbf{CS}):表示MLLM相对于真实句子预测的正确物体计数百分比,越高越好。

幻觉得分(HS\mathbf{HS}):表示MLLM预测的额外物体计数百分比,这些计数在真实句子中不存在,越低越好。

实验

Comparison to baseline Multimodal LLMs on the COST validation dataset for Object Identification

  • COST IT LLaVA-1.5-7b: 使用COST训练数据与LLaVA-1.5中使用的指令微调数据混合而成的数据从头训练LLaVA-1.5。
  • Soft-Prompted LLaVA-1.5: 在LLM输入前添加576个可学习标记(⟨prompt⟩),并在COST训练数据集上仅微调⟨prompt⟩参数。
  • ImCoder LLaVA-1.5: 使用原图作为控制输入,在COST训练数据上进行训练。

Performance on Object Order Perception

Input Tokens: <depth> + <seg> + <img> + <query>

使用真实值和预测中物体位置的绝对差值计算深度得分(DS\mathbf{DS})。

总结

这项工作分析了多模态大型语言模型(VLMMs)在物体级感知技能方面的表现。

尽管MLLMs在视觉推理方面表现良好,但它们需要在简单而基本的物体感知任务上提高。

为了提高MLLMs的物体感知能力,我们提出了COST数据集,用于训练和评估MLLMs在物体感知任务上的表现。

我们在COST数据集上对不同的现成MLLMs和GPT-4V进行了基准测试,并观察到它们的性能不佳。

因此,我们提出使用感知模态作为控制输入,以及一个通用的视觉编码器(VCoder)作为适配器,将控制输入投影到LLM嵌入空间。

我们的VCoder可以轻松扩展,根据任务利用各种模态作为控制输入。

为了量化MLLMs在物体级的感知能力,我们引入了计数得分(CS\mathbf{CS})、幻觉得分(HS\mathbf{HS})和深度得分(DS\mathbf{DS})。

我们适配了带有VCoder的LLaVA-1.5,仅在COST数据集上训练了VCoder,并在物体感知任务上展示了其改进的性能,同时保持了推理性能。

我们希望我们的工作能够激发研究界关注为MLLMs开发物体感知数据集,并在未来开发在感知和推理方面同样出色的视觉系统。