理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

在人类的日常交流中,经常会关注场景中不同的区域或物体,人们可以通过说话并指向这些区域来进行高效的信息交换。这种交互模式被称为参考对话(Referential Dialogue)

如果 MLLM 擅长这项技能,它将带来许多令人兴奋的应用。例如,将其应用到 Apple Vision Pro 等混合现实 (XR) 眼镜中,用户可以使用视线注视指示任何内容与 AI 对话。同时 AI 也可以通过高亮等形式来指向某些区域,实现与用户的高效交流。

本文提出的 Shikra 模型,就赋予了 MLLM 这样的参考对话能力,既可以理解位置输入,也可以产生位置输出

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度图片

  • 论文地址:http://arxiv.org/abs/2306.15195
  • 代码地址:https://github.com/shikras/shikra

核心亮点

Shikra 能够理解用户输入的 point/bounding box,并支持 point/bounding box 的输出,可以和人类无缝地进行参考对话

Shikra 设计简单直接,采用非拼接式设计,不需要额外的位置编码器、前 / 后目标检测器或外部插件模块,甚至不需要额外的词汇表。

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度图片

如上图所示,Shikra 能够精确理解用户输入的定位区域,并能在输出中引用与输入时不同的区域进行交流,像人类一样通过对话和定位进行高效交流。

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度图片

如上图所示,Shikra 不仅具备 LLM 所有的基本常识,还能够基于位置信息做出推理。

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度图片

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

如上图所示,Shikra 可以对图片中正在发生的事情产生详细的描述,并为参考的物体生成准确的定位。

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

尽管 Shikra 没有在 OCR 数据集上专门训练,但也具有基本的 OCR 能力。

更多例子

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度图片

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

其他传统任务

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

方法

模型架构采用 CLIP ViT-L/14 作为视觉主干,Vicuna-7/13B 作为基语言模型,使用一层线性映射连接 CLIP 和 Vicuna 的特征空间。

Shikra 直接使用自然语言中的数字来表示物体位置,使用 [xmin, ymin, xmax, ymax] 表示边界框,使用 [xcenter, ycenter] 表示区域中心点,区域的 xy 坐标根据图像大小进行归一化。每个数字默认保留 3 位小数。这些坐标可以出现在模型的输入和输出序列中的任何位置。记录坐标的方括号也自然地出现在句子中。

实验结果

Shikra 在传统 REC、VQA、Caption 任务上都能取得优良表现。同时在 PointQA-Twice、Point-V7W 等需要理解位置输入的 VQA 任务上取得了 SOTA 结果。

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度图片

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

本文使用 POPE benchmark 评估了 Shikra 产生幻觉的程度。Shikra 得到了和 InstrcutBLIP 相当的结果,并远超近期其他 MLLM。

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

思想链(CoT),旨在通过在最终答案前添加推理过程以帮助 LLM 回答复杂的 QA 问题。这一技术已被广泛应用到自然语言处理的各种任务中。然而如何在多模态场景下应用 CoT 则尚待研究。尤其因为目前的 MLLM 还存在严重的幻视问题,CoT 经常会产生幻觉,影响最终答案的正确性。通过在合成数据集 CLEVR 上的实验,研究发现,使用带有位置信息的 CoT 时,可以有效减少模型幻觉提高模型性能。

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

结论

本文介绍了一种名为 Shikra 的简单且统一的模型,以自然语言的方式理解并输出空间坐标,为 MLLM 增加了类似于人类的参考对话能力,且无需引入额外的词汇表、位置编码器或外部插件。

文章版权声明

 1 原创文章作者:晚风,如若转载,请注明出处: https://www.52hwl.com/83616.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月17日 下午2:36
下一篇 2023年7月17日 下午2:37