马斯克新文生图模型闪现!网友抢时间疯狂实测:人物生成超逼真,可算把赛博皮卡画明白了

马斯克xAI的一个新动作,着实是引发了不少网友们的猎奇心理。 事情是这样的。 就在这个周末,xAI在自家的Grok里上线了一个新的文生图模型,名叫Aurora。

马斯克xAI的一个新动作,着实是引发了不少网友们的猎奇心理。

事情是这样的。

就在这个周末,xAI在自家的Grok里上线了一个新的文生图模型,名叫Aurora

图片

从效果上来看,可以说是相当的逼真且高清,尤其是人物图像的生成。

例如画一个马斯克

再来看几张放大细节的AI图片:

图片

然后网友们便一发不可收拾的在线整活,请欣赏Aurora生成的科技巨头CEO们

图片

对此,网友还特意叮嘱了一句“这不是拍出来的照片”

图片

还有这张被网友称为“最佳”奥特曼的特写,Prompt也是极其简单:

Create an image of Sam Altman.生成一张Sam Altman的图像。

图片

网友也惊奇地发现,Grok终于可以把Cybertruck给画明白了:

图片

效果虽好,但Aurora上线这事儿也是蛮drama的——

因为它仅仅闪现了几个小时……

图片

对此,xAI官方并没有给出具体的原因。

但从网友们晒出的各种效果来看,Aurora并没设置其它同类产品的限制,例如公众人物、版权图像、血腥画面等。

马斯克本人则回复说:

只是测试版,很快会改进。

图片

这次是自研的吗?

除了“闪现”之外,针对Aurora是不是自研这个话题,也成了网友们热议的焦点。

图片

(注:White-labelled(白标)是一种商业模式或产品设计模式,指的是一家公司生产或开发某种产品或服务,然后允许其他公司以自己的品牌对其进行重新包装和销售。)

有这样的疑问并不奇怪。

因为在Aurora之前,Grok也有一款文生图的模型,那便是Flux

图片

当时发布Flux之际,官方宣布的就是跟Black Forest Labs进行的合作,而非完全自研。

对于这个问题,根据TechCrunch的说法:

至少xAI的一名员工称,他们帮忙微调过Aurora。

图片

但截至发稿,这位员工在X上的消息已被删除。

有网友认为,Aurora是在Flux微调的可能性很大;但也有人基于马斯克此前的言论,认为不排除自研的可能性。

图片

但更多的网友还是将目光聚焦在Aurora和Flux之间效果的差距。

例如同样是生成猫咪,Aurora的效果明显更写实一些:

图片

对于天马行空的想法,Aurora对Prompt的理解能力也是要精准一些:

图片

也正如我们刚才所展示的,Aurora尤其擅长人物写实的生成:

图片

但它并非没有翻车的情况,也有人晒出了一些“一眼AI”的失败案例:

图片图片

One More Thing

正值OpenAI“双12”直播进行时,奥特曼发推期待了一下第三天的内容(因为隔了一个周末)。

然后xAI的员工Greg Yang转发并配上了图文表示:

喜欢他们周末加班时也很chill。

图片

随后,他还补充道:

在xAI工作真的太有趣了,感觉就是一群人一起打造很酷的东西,完全不像在工作。

图片

除此之外,团队的另一名成员Chris Park还预告了一则重磅消息:

Grok 3即将到来。

图片

相关资讯

专访唐杰 | 我国首个超大智能模型「悟道」发布,迎接基于模型的AI云时代

唐杰认为,超大规模预训练模型的出现,很可能改变信息产业格局,继基于数据的互联网时代、基于算力的云计算时代之后,接下来可能将进入基于模型的 AI 时代。智源研究院致力于成为这样一个时代的引领者,集聚各方资源力量,构建一个超大规模智能模型技术生态和开放平台,供北京乃至全国的研究人员、开发者和企业使用。

硬科技起飞,这家成立仅三年的AI研究院已颇具国际风范

摘要:「我认为历史上多数突破性研究成果的出现都是偶然事件,而研究机构所有努力都是为了提升这类偶然事件发生的概率。」张宏江说道。他所牵头的「创新型研究院」,即是一种积极探索,短短3年已展现一派生机。

AI可解释性及其在蚂蚁安全领域的应用简介

可解释性相关算法作为蚂蚁集团提出的“可信AI”技术架构的重要组成部分,已大量应用于蚂蚁集团安全风控的风险识别、欺诈举报审理等场景,取得了一些阶段性的成果。本系列文章,我们将以风控领域具体应用为例,尤其关注领域专家经验和机器学习方法的交互结合,介绍蚂蚁集团特征可解释、图可解释、逻辑可解释等算法方案的探索和落地。专家点评:沈超 西安交通大学教授、网络空间安全学院副院长AI可解释性是可信AI的重要组成部分,已成为人工智能领域的研究热点。可解释性有助于用户理解系统的决策逻辑并建立信任,从而进一步加快AI技术在领域中的可信应