真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

AI好好用报道编辑:杨文目前发布的最大的开源视频生成模型。 Genmo 当了一回「赛博菩萨」。 昨晚,AI 视频生成公司 Genmo 推出了最新的视频生成模型 Mochi 1 ,并且大手一挥,直接给开源了 。

AI好好用报道

编辑:杨文

目前发布的最大的开源视频生成模型。

Genmo 当了一回「赛博菩萨」。

昨晚,AI 视频生成公司 Genmo 推出了最新的视频生成模型 Mochi 1 ,并且大手一挥,直接给开源了 。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

Genmo 在社交媒体上高调宣布:Mochi 1 在运动质量、提示遵循性和人类渲染方面表现出色,甚至超越恐怖谷。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

同时,它还声称,在内部测试中,Mochi 1 已经能与 Runway、Luma 、可灵等领先的闭源竞争者打个平手,甚至略胜一筹。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

为了让网友体验一波 Mochi 1 ,Genmo 还提供了一个在线网址。

链接:https://www.genmo.ai/play

不过,每6小时仅有 2 次免费生成机会,且用且珍惜吧。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

不少网友得知消息后,已经按耐不住整活的热情。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

那么,它的效果到底咋样?

先来瞅瞅官方放出来的视频 demo,稍后我们奉上一手实测。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

-1-

一手实测

要说 Mochi 1 最大的优势,就在于其高保真运动和强大的提示遵循能力。

它可以对生成视频中的角色、设定和动作进行精确控制。

科技媒体 VentureBeat 的记者生成了一段老奶奶侧对着镜头说话的视频。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

无论是花白的头发,还是面部的皱纹,以及说话时颤动的嘴角,都相当逼真。

不过,如果细看,还是能发现老奶奶的眨眼动作并不自然。

而在下面这段 5 秒视频中,男子正端详瓷器,眼睛没有什么明显的 bug,但手部动幅一大,就会发生轻微扭曲。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

X 网友 Heather Cooper 展示了一系列 Mochi 1 生成的作品:

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

她还对比了两次生成结果的连贯性:

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

我们也来凑凑热闹,亲自上手试一把。

Prompt:Surreal, cinematic, an astronaut wandering on the desolate moon, with extreme detail.提示词:超现实,电影效果,一个宇航员在荒凉的月球上漫步,极致细节。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

一开始,镜头对准坑坑洼洼的地表,然后缓缓上移,画面中出现了一个身穿宇航服的宇航员。

虽然其镜头运动幅度挺大,但并未体现 Prompt 中宇航员漫步的动作。

Prompt:A little dog was chasing bubbles on the grass.提示词:一只小狗在草地上追逐泡泡。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

这一次,Mochi 1 翻车翻得猝不及防。

视频中,小狗在摇晃脑袋时,出现了大面积的崩坏,而且从修勾的嘴里吐出很多泡泡,这显然不符合客观事实。

尽管官方声称 Mochi 1 的提示遵循和运动质量超过大多数视频模型,但我们发现,Mochi 1 仍然存在瑕疵。

例如,它仅支持 480p 的分辨率,并且在处理复杂运动的场景时,可能会出现轻微的视觉扭曲。

此外,Mochi 1 在模拟照片级真实感方面表现出色,但在处理动画内容时还稍显力不从心。

当然,Genmo 公司已表示,计划在今年晚些时候推出 Mochi 1 HD 版本,届时将支持 720p 的分辨率,并在运动细节上提供更高的精确度。

-2-

目前发布的最大的开源视频生成模型

据介绍,Mochi 1 基于 Genmo 的非对称扩散变换器(AsymmDiT)架构构建,拥有 100 亿个参数,是目前公开发布的规模最大的开源视频生成模型。

该架构专注于视觉推理,处理视频数据的参数量是处理文本数据的四倍。

为了降低终端用户的设备内存需求,让开发者更容易地获取和使用模型,Mochi 1 采用了视频变分自编码器技术,能够将视频数据压缩到原始大小的一小部分。

现在,用户可以在 Hugging Face 平台上免费获取完整的模型权重和代码,不过需要注意的是,要在自己的设备上运行 Mochi 1,至少需要配备 4 块 Nvidia H100 GPU。

  • Code:

    https://github.com/genmoai/models

  • Preview版本: 

    https://huggingface.co/genmo/mochi-1-preview

最后,说个题外话。

昨晚,一大堆 AI 公司排队上「新货」。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

除了 Genmo 开源自家视频生成模型 Mochi 1 外 ,Runway 还介绍了新功能 ——Act One,可以把真人表演转化成不同风格。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

而在大模型领域,Anthropic 推出了升级版的 Claude 3.5 Sonnet ,以及一款新模型 Claude 3.5 Haiku;OpenAI 在欧洲上线了高级语音功能;Perplexity 引入推理模式,允许用户提出多层问题。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

此外,AI 生图领域,Stability AI 发布了自家最强模型 Stable Diffusion 3.5,并一口气祭出三个版本;Ideogram 推出 Canvas,可扩图、局部重绘等。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

大洋彼岸的 AI 圈扎堆搞更新,真有一种过年的赶脚。

延伸阅读:Sora 竞争对手融资数千万美元,目前可免费“薅”

文章视频链接:https://mp.weixin.qq.com/s/OdHvM7nsTWAxbJBYmxZx_w

参考链接——

https://venturebeat.com/ai/video-ai-startup-genmo-launches-mochi-1-an-open-source-model-to-rival-runway-kling-and-others/

项目博客:

https://www.genmo.ai/blog?utm_source=ai-bot.cn

在线体验:

https://www.genmo.ai/play

huggingface模型库:

https://huggingface.co/genmo/mochi-1-preview

以后我们会带来更多好玩的AI话题,也欢迎大家进群交流。

真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多

给TA打赏
共{{data.count}}人
人已打赏
应用

智谱与中国三星官宣战略合作:AI 手机与 GLM 大模型相结合

2024-10-23 17:53:41

应用

魔法填充+无限扩图,Ideogram推出AI画板工具Canvas

2024-10-23 21:00:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索