白交 发自 凹非寺
量子位 | 公众号 qbitai
gpt-4v来做目标检测?网友实测:还没有准备好。
虽然检测到的类别没问题,但大多数边界框都错放了。
没关系,有人会出手!
那个抢跑gpt-4看图能力几个月的迷你gpt-4升级啦——minigpt-v2。
△(左边为gpt-4v生成,右边为minigpt-v2生成)
而且只是一句简单指令:[grounding] describe this image in detail就实现的结果。
不仅如此,还轻松处理各类视觉任务。
圈出一个物体,提示词前面加个 [identify] 可让模型直接识别出来物体的名字。
当然也可以什么都不加,直接问~
minigpt-v2由来自minigpt-4的原班人马(kaust沙特阿卜杜拉国王科技大学)以及meta的五位研究员共同开发。
上次minigpt-4刚出来就引发巨大关注,一时间服务器被挤爆,如今github项目已超22000 星。
此番升级,已经有网友开始用上了~
多视觉任务的通用界面
大模型作为各文本应用的通用界面,大家已经司空见惯了。受此灵感,研究团队想要建立一个可用于多种视觉任务的统一界面,比如图像描述、视觉问题解答等。
「如何在单一模型的条件下,使用简单多模态指令来高效完成各类任务?」成为团队需要解决的难题。
简单来说,minigpt-v2由三个部分组成:视觉主干、线性层和大型语言模型。
该模型以vit视觉主干为基础,所有训练阶段都保持不变。从vit中归纳出四个相邻的视觉输出标记,并通过线性层将它们投影到 llama-2语言模型空间中。
团队建议在训练模型为不同任务使用独特的标识符,这样一来大模型就能轻松分辨出每个任务指令,还能提高每个任务的学习效率。
训练主要分为三个阶段:预训练——多任务训练——多模式指令调整。
最终,minigpt-v2 在许多视觉问题解答和视觉接地基准测试中,成绩都优于其他视觉语言通用模型。
最终这个模型可以完成多种视觉任务,比如目标对象描述、视觉定位、图像说明、视觉问题解答以及从给定的输入文本中直接解析图片对象。
感兴趣的朋友,可戳下方demo链接体验:
https://minigpt-v2.github.io/
https://huggingface.co/spaces/vision-cair/minigpt-v2
论文链接:https://arxiv.org/abs/2310.09478
github链接:https://github.com/vision-cair/minigpt-4
参考链接:https://twitter.com/leoyerrrr
— 完—
「量子位2023人工智能年度评选」开始啦!
今年,量子位2023人工智能年度评选从企业、人物、产品/金沙娱场城app的解决方案三大维度设立了5类奖项!欢迎扫码报名
meet 2024大会已启动!点此了解详情。
点这里👇关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
2023-04-20
2023-04-19
2023-05-14
2024-02-08
2023-05-15
2小时前
2小时前
2小时前
2小时前
2小时前
2小时前
2小时前
2小时前
2小时前
2小时前
金沙娱场城app copyright © 2024 金沙娱场城app-老版金沙app下载客户手机端 北京智识时代科技有限公司 金沙娱场城app的版权所有