Shikra:理解指向,说出坐标,多模态语言模型超进化

b1d4df1ff710ea2bb46cc1fbd64660a9.gif

2ed3a464f917c45f7e22e0c616f8f44c.png

论文:http://arxiv.org/abs/2306.15195

代码:https://github.com/shikras/shikra

34af7cae4cea362ef0a2a5777179849f.png

背景

在人类的日常交流中,经常会关注场景中的不同区域或物体,人们可以通过说话并指向这些区域来进行高效的信息交换。我们将这种交互模式称为参考对话(Referential Dialogue)

如果 MLLM 擅长这项技能,它将带来许多令人兴奋的应用。例如,将其应用到 Apple Vision Pro 等混合现实 (XR) 眼镜中,用户可以使用视线注视指示任何内容与AI对话。同时AI也可以通过高亮等形式来指向某些区域,实现与用户的高效交流。

本工作提出了Shikra模型,赋予了MLLM这样的参考对话能力,既可以理解位置输入,也可以产生位置输出。

2639981186f9c6f59e1ef61d2c578f78.png

核心亮点

1. Shikra能够理解用户输入的point/bounding box,并支持point/bounding box的输出,可以和人类无缝地进行参考对话。

2. Shikra设计简单直接,采用非拼接式设计,不需要额外的位置编码器、前/后目标检测器或外部插件模块,甚至不需要额外的词汇表。

fddaefc558cdc28fd51f964a988f8c37.png

如上图所示,Shikra能够精确理解用户输入的定位区域,并能在输出中引用与输入时不同的区域进行交流。像人类一样通过对话和定位进行高效交流。

abcd857e9f2b6c18a1aa02bc207f7b36.png

8982f1e0dc31ae6b6954cd308c45514d.png

9e3815cc598c8f2f8a88c49c7b766798.png

如上图所示,Shikra不仅具备LLM所有的基本常识,还能够基于位置信息做出推理

6360d686dfd1b86bf9dcabd5c05b0c94.png

5ef69f84572bd3866d16558346b36600.png

如上图所示,Shikra可以产生详细的描述,解释图片中正在发生的事情,并为参考的物体生成准确的定位。

7df41b38c3700680347a031a4cddbbce.jpeg

尽管没有在OCR数据集上专门训练,Shikra也具有基本的OCR能力。

更多的例子

bcf127843af98528d5dfcc6b2641c43a.png

77f78dfa45294b872f74088f50147303.png

其他传统任务

82b65e428b0b037ed4e22085c72e4b4b.jpeg

e03d7c09541562d895d59d8f741e4c80.jpeg

0987244f1d18a9ec702dbe2fcfb01931.png

af62f4dd692e2bd0b3ec98478291dbe4.png

a0d5a3f1ee63025a936c7a6c5aa3bf06.png

方法

模型架构采用CLIP ViT-L/14 作为视觉主干,Vicuna-7/13B作为基语言模型,使用一层线性映射连接CLIP和Vicuna的特征空间。

Shikra直接使用自然语言中的数字来表示物体位置,使用[xmin, ymin, xmax, ymax] 表示边界框,使用[xcenter, ycenter]表示区域中心点,区域的 xy 坐标根据图像大小进行归一化。每个数字默认保留 3 位小数。这些坐标可以出现在模型的输入和输出序列中的任何位置。记录坐标的方括号也自然地出现在句子中。

5db506bb378fddc02f4f6d1449e5735f.png

实验结果

Shikra在传统REC、VQA、Caption任务上都能取得优良表现。同时在PointQA-Twice、Point-V7W等需要理解位置输入的VQA任务上取得了SOTA结果。

818d418ee24f3883d0dceef9284e79a3.png

48e7b249068911f13b969e4d9196a096.png

a61bcef56e3d7451f3c5c228ebbb3aed.png

da4993ec2ae6e1428617f1f230bd6d9f.png

我们使用POPE benchmark评估了Shikra产生幻觉的程度,Shikra得到和InstrcutBLIP相当的结果,并远超近期其他MLLM。

31aa256f3439912b910977e8bb0da31f.png

思想链(CoT),旨在通过在最终答案前添加推理过程以帮助LLM回答复杂的QA问题。这一技术已被广泛应用到自然语言处理的各种任务中。然而如何在多模态场景下应用CoT则尚待研究。尤其因为目前的MLLM还存在严重的幻视问题,CoT经常会产生幻觉,影响最终答案的正确性。通过在合成数据集CLEVR上的实验,我们发现,使用带有位置信息的CoT时,可以有效减少模型幻觉提高模型性能

45257faaec703836fc9da3f4771fa6b9.png

ed0e22a2eb5083ed9dc6c2c5d4df96ac.png

结论

本工作介绍了一种名为Shikra的简单且统一的模型,以自然语言的方式理解与输出空间坐标,为MLLM增加了类似于人类的参考对话能力,无需引入额外的词汇表、位置编码器或外部插件。

91fbaadff55d9db41541ad262f4b9f65.gif

猜你喜欢

转载自blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/131466918
今日推荐