AI大模型看手相!图片视频加持深度思考,阿里QVQ-Max“神了神了”

阿里又发了个有意思的大模型——QVQ-Max,第一版视觉推理模型,对任意图像或视频都可以进行深度思考。 举个有趣的例子,上传一张你的手掌,再点击Thinking,QVQ-Max就可以给你看手相:可以看到,在深度思考过后,QVQ-Max就开始逐步分析手掌上的线条和其他特征。 包括心线、头线、生命线等主要线条的分析,以及戒指手指上的金戒指的象征意义。

阿里又发了个有意思的大模型——

QVQ-Max,第一版视觉推理模型,对任意图像或视频都可以进行深度思考。

举个有趣的例子🌰,上传一张你的手掌,再点击Thinking,QVQ-Max就可以给你看手相

AI大模型看手相!图片视频加持深度思考,阿里QVQ-Max“神了神了”

可以看到,在深度思考过后,QVQ-Max就开始逐步分析手掌上的线条和其他特征。

包括心线、头线、生命线等主要线条的分析,以及戒指手指上的金戒指的象征意义。

这还只是一个比较有娱乐性的例子。

如果你一口气给QVQ-Max“喂”多张图片,它也可以进行深度思考:

这两张图片描绘了哪些风景?它们之间的关系是什么?

AI大模型看手相!图片视频加持深度思考,阿里QVQ-Max“神了神了”

在一顿思考过后,QVQ-Max准确地识别出两张图联系——都是西湖的风景,但一张是春夏时节,另一张是冬季。

再如数学推理,同样是给它“喂”一张图即可,连提问都省了:

AI大模型看手相!图片视频加持深度思考,阿里QVQ-Max“神了神了”

在思考之后,QVQ-Max是找到了数字们之间的规律,并最终给出了正确答案:10。

以及直接上传一个手绘简笔画视频,并附上一句:

分析视频,将视觉内容与文字结合,并为视频中的镜头创建生动有趣的字幕。

AI大模型看手相!图片视频加持深度思考,阿里QVQ-Max“神了神了”

最终,QVQ-Max依旧是稳稳地完成了任务。

网友们看罢,也是麻溜地去试了试。

不过这一次,QVQ-Max有点小翻车——路飞是认对了,但这个乔巴……

图片

以及啊,这两天被OpenAI GPT-4o图像生成带火的吉卜力,网友们也是跟上了:

图片

那么QVQ-Max的图像视频深度思考实力到底如何,我们这就亲手尝试一番。

实测QVQ-Max

首先,我们还是来测试一下QVQ-Max看图解数学题的能力。

题目是这样的:

图片

然后我们提问:

这道题的答案是多少?

图片

在深度思考过后,QVQ-Max不仅精准识别出了手写的题目,而且给出了正确答案:2。

刚才Qwen官方给出了看手相的例子,这次我们再来“喂”下这张图:

图片

问题是这样的:

这是什么?

图片

嗯,是比较全面地介绍了星盘。

接下来,我们再来测试一下视频推理,例子就用Anthropic最新发布的一个:

AI大模型看手相!图片视频加持深度思考,阿里QVQ-Max“神了神了”

若是刨去视频里的背景音,单是看内容,还是比较抽象的。

对此,QVQ-Max给出的理解是:

图片

从观察到推理

除了效果之外,虽然Qwen团队没有公布相关论文,但对于背后的技术亮点,团队还是简单的介绍了一番。

首先,团队在MathVision这个benchmark(汇集各类困难多模态数学)上进行了一番测试:

图片

结果表明,通过调整模型thinking的最大长度,模型在MathVision上的准确率也会持续提升。

除此之外,团队还总结了QVQ-Max的三大能力特点。

包括对图片的解析能力非常强,无论是复杂的图表还是日常生活中随手拍的照片,它都能快速识别出关键元素。比如,它可以告诉你一张照片里有哪些物品、有什么文字标识,甚至还能指出一些你可能忽略的小细节。

仅仅识别出图片里的内容还不够,QVQ-Max还能进一步分析这些信息,并结合背景知识得出结论。

例如,在一道几何题中,它可以根据题目附带的图形推导出答案;在一段视频里,它能根据画面内容推测出接下来可能发生的情节。

除了分析和推理,QVQ-Max还能做一些有趣的事情,比如帮你设计插画、生成短视频脚本,甚至根据你的需求创作角色扮演的内容。

如果你上传一幅草稿,它可能会帮你完善成一幅完整的作品;上传一个日常照片,它可以化身犀利的评论家,占卜师。

值得注意的是,QVQ-Max是免费可用的哦,感兴趣的朋友快去试试吧~

体验地址:https://chat.qwen.ai

相关资讯

LineArt:无需训练的高质量设计绘图生成方法,可保留结构准确性并生成高保真外观

本文经AIGC Studio公众号授权转载,转载请联系出处。 今天给大家介绍一种无需训练的基于扩散模型的高质量设计绘图外观迁移方法LineArt,该方法可以将复杂外观转移到详细设计图上的框架,可促进设计和艺术创作。 现有的图像生成技术在细节保留和风格样式一致性方面存在局限,尤其是在处理专业设计图时。

你要跳舞么?复旦&微软提出StableAnimator:可实现高质量和高保真的ID一致性人类视频生成

本文经AIGC Studio公众号授权转载,转载请联系出处。 由复旦、微软、虎牙、CMU的研究团队提出的StableAnimator框架,实现了高质量和高保真的ID一致性人类视频生成。 StableAnimator 生成的姿势驱动的人体图像动画展示了其合成高保真和 ID 保留视频的能力。

阿里通义实验室提出AnyStory:开启个性化文本到图像生成的新篇章!

在这个数字化时代,生成式AI技术正以前所未有的速度改变着我们的创作方式。 近期,阿里通义实验室发表了一篇题为《AnyStory: Towards Unified Single and Multi-Subject Personalization in Text-to-Image Generation》的论文,该论文提出了一种创新的框架,旨在通过统一的路径实现单个及多个主体的个性化文本到图像生成,为故事可视化、艺术创作乃至更多领域带来了革命性的突破。 论文中深入探讨了当前文本到图像生成技术面临的挑战,如主体一致性、细节保留以及多主体个性化等方面的不足。