多模态大模型,阿里通义千问能和GPT-4V掰手腕了

通义千问的图象推理威力,最近有了大幅提升。2024 年,大模型领域要卷什么?如果没有思路的话,不妨看看各家大厂都在押注什么方位。最近一段时间,先是 OpenAI 推出 GPT-4V,让大模型拥有了前所未有的图象语义了解威力。google随后跟上,宣布的 Gemini 成为了业界第一个原生的多模态大模型,它可以泛化并无缝地了解、操作和组合不同类型的信息,包括文本、代码、音频、图象和视频。很明显,新的方位就是多模态。继 GPT-4 在语言方位的里程碑式突破之后,业界普遍认为「视觉」是下一个爆发的赛道。毕竟人类的五感之中有 80

通义千问的图象推理威力,最近有了大幅提升。

2024 年,大模型领域要卷什么?

如果没有思路的话,不妨看看各家大厂都在押注什么方位。

最近一段时间,先是 OpenAI 推出 GPT-4V,让大模型拥有了前所未有的图象语义了解威力。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

google随后跟上,宣布的 Gemini 成为了业界第一个原生的多模态大模型,它可以泛化并无缝地了解、操作和组合不同类型的信息,包括文本、代码、音频、图象和视频。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

很明显,新的方位就是多模态。继 GPT-4 在语言方位的里程碑式突破之后,业界普遍认为「视觉」是下一个爆发的赛道。毕竟人类的五感之中有 80% 是视觉信息,未来的大模型也应该充分利用更多种类的感官,以此探索完成 AGI 的路径。

不只有 GPT-4V、Gemini,在这个充满潜力的方位上,国内的技巧力量同样值得关注:最近的一个重要宣布就来自阿里,他们新进级的通义千问视觉语言大模型 Qwen-VL-Max 在上周正式宣布,在多个测评基准上取得了好成绩,并完成了强大的图象了解的威力。

我们还记得 Gemini 宣布之后,google马上被曝出给 Demo 加速。这让人们对新技巧产生了一些质疑,并开始好奇:在当下的各路多模态大模型中,到底哪家比较强?

Demo 不作数,实际一测便知。有人拿着自己的名片给 GPT-4V 和 Qwen-VL-Plus 看,高下立见了:值得注意的是,去年底进级的 Plus 版还不是 Qwen-VL 的最强版本,最近宣布的 Max 才是。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

图源:https://x.com/altryne/status/1742597044781395982?s=20

在 Qwen-VL-Plus 宣布后,国内也有人拿 Gemini 演示视频里的问题对它进行了测试,发现所有问题 Qwen-VL-Plus 完全都能回答上来。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

一系列测评看下来,我们确实可以说,Qwen-VL 的整体威力已经达到了媲美 GPT-4V 和 Gemini 的水平,在多模态大模型领域完成了业内领先。

Qwen-VL 如何追平 GPT-4V、Gemini?

事实上,通义千问的视觉了解大模型已经经历了几轮迭代。

早在去年 8 月,阿里就放出了 Qwen-VL 模型的第一个版本,并很快对通义千问进行了进级。Qwen-VL 支持以图象、文本作为输入,并以文本、图象、检测框作为输出,让大模型真正具备了「看」世界的威力。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

图片来源:https://twitter.com/Gorden_Sun/status/1696021151753855331

经历了几个月的改进,Qwen-VL 的整体威力又有了一个跃升,陆续推出 Plus 和 Max 两大进级版本,限时免费使用。用户可以在通义千问官网、通义千问 APP 直接体会 Max 版本模型的威力,也可以通过阿里云灵积平台(DashScope)调用模型 API。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

相比于开源版本的 Qwen-VL,这两个模型在多项图文多模态标准测试中获得了堪比 Gemini Ultra 和 GPT-4V 的水准,并大幅超越此前开源模型的最佳水平。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

在多模态大模型性能整体榜单 OpenCompass 中,Qwen-VL-Plus 紧随 Gemini Pro 和 GPT-4V,占据了前三名的位置。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

图片来源:https://opencompass.org.cn/leaderboard-multimodal

Qwen-VL Plus 和 Max 支持百万像素以上的高清图,甚至各种极端长宽比的图片。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

它们不仅有高水平的基准评测性能,在真实场景中展现出来的解决问题的威力也有显著提高,不仅可以轻松进行对话,辨别名人、地标,生成文本内容,视觉推理威力也有明显改善。

开发者一手实测

Qwen-VL 宣布以来,从开源社区到社交网络上,我们已经看到了一系列「花活」。

接下来,我们从普通用户的角度,再来考验一下进级版的 Qwen-VL。

给它一张《繁花》里面 90 年代初的上海滩照片:

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

通义千问辨别出了这里是上海外滩,还能介绍一下黄浦江的景色,以及上海海关大楼等特定建筑物。

剧中提到的炒饭内含多少卡路里?

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

看起来大模型可以了解并联系一些知识。

除了基础的描述和辨别威力外,Qwen-VL 模型还具备视觉定位威力和针对画面指定区域进行问答的威力。比如,根据指示进行目标检测。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

如果你在截图上圈住一部分,它可以对其中的内容进行解释:

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

新进级的 Qwen-VL 模型最显著的进步之一是基于视觉完成复杂推理的威力,比如了解流程图这种复杂的表示形式:

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

与此同时,进级后的 Qwen-VL 处理图象中文本的威力也有了显著提高,不管是辨别中文还是英文文本。Qwen-VL-Plus/Max 可以有效地从表格和文档中提取信息,并将这些信息重新格式化,以满足自定义输出要求。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

四个多月就有如此进步,这就让人们开始感叹,阿里通义千问大模型更新够快,威力够强。

阿里多模态大模型,正在爆炸式发展

能够达到如今的水准,Qwen-VL 的技巧实力不是一朝一夕炼成的。

在多模态大模型方位上,阿里很早就开始布局。从 2021 年 M6 系列的预训练 – 微调模式,到 2022 年 OFA (One-For-All) 系列的统一模态表示和任务的模式,再到 OFASys 的系统化 AI 学习的尝试,通义千问团队的目标是做出和人一样能听、能看、能了解 & 沟通的通用 AI 模型(系统)。

2022 年,阿里开源了 OFA。OFA 能通过自然语言来描述一个图文多模态任务,比如输入「描述一下这张图片」,模型就会尝试去产生一个合适的图象描述,打破了大家对通用多模态任务模型效果不如专用多模态模型的传统观念。这篇被 ICML 2022 接收的论文思路启发了后续的许多研究,被google、微软、Meta 等众多国际大厂所引用,是近年来多模态方位的高引论文之一。

2023 年以来,通义千问团队延续了 OFA 的研究路线,利用通义千问语言模型的威力,弥补了过去多模态模型在新任务泛化威力上的缺陷,相关成果就是 2023 年下半年我们看到的开源图文多模态模型 Qwen-VL 和音频多模态模型 Qwen-Audio。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

与此同时,阿里云通义实验室的一系列视觉生成类成果,也彻底火出了圈,社交网络上时不时可以看到利用通义 AI 技巧生成的动图。

比如只需一张图片即可生成跳舞视频的 Animate Anyone,在国内外都引发了大量关注:

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

再比如完成真人百变换装的 Outfit Anyone。这项技巧不仅能够精确地处理服装的变形效果,并且能调整以适应不同的姿势和体形,完成更加逼真的试穿体会。无论是动画形象还是真人,都可以一键换装,让「QQ 秀」真正进级成了真人版。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

此外,通义实验室的文生视频模型 I2VGen-XL 也是实实在在地火了一把,生成的视频兼顾高清、高分辨率、平滑、美观,毫不逊于 Gen2、Pika 效果。

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

多模态大模型,阿里通义千问能和GPT-4V掰手腕了

I2VGen-XL 生成视频结果。

众所周知,通用人工智能的求索之路相当漫长,而大模型的技巧突破,已经为我们指出了一个光明的方位。过去一年多,人们见证了一场激烈的 AI 技巧角逐,赛道上不乏来自中国的选手。

以往,大模型领域的厂商大多以 OpenAI 为标杆,需要承认的是,OpenAI 的最新一代对话大模型 GPT-4 仍然在语言领域保持着领先优势。

但在接下来的 2024 年,在下一个最具爆发潜力的技巧方位 —— 多模态大模型上,中国的技巧与产品或可与 OpenAI、google这样的选手掰一掰手腕。像 Qwen-VL 这样的国产大模型,能否完成从追平到进一步超越?会不会再诞生一批爆款应用?这些都是接下来一年值得期待的事情。

长远来看,在多模态大模型进一步实用化之后,我们以后可以更加理直气壮,让 AI 自动辨别图象和音频中的内容,进行总结、摘要和分析,新技巧势必会大幅度提升我们的工作效率;我们在 AR、VR 世界中与环境的交互也会更加便捷,可穿戴设备的体会将会更具真实感,新应用可以大幅改进娱乐和日常体会。

更加直观的是,多模态大模型能够根据每个人的喜好生成定制化内容和产品,对于阿里来说,这件事很重要。

或许,随着多模态大模型技巧的突破,我们将很快看到电商领域发生一场革命。

给TA打赏
共{{data.count}}人
人已打赏
应用

Mamba论文为什么没被ICLR领受?AI社区沸腾了

2024-1-26 14:46:00

应用

让IP替品牌讲好故事!夸克x变形金刚联名设想过程复盘

2024-1-27 9:05:16

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索