网友:我都不敢猜想一年后的视频技能会有多先辈。
一段五十秒的预告视频,再次让 AI 圈沸腾了。
昨日 Runway 宣布,即将在视频生成东西 Gen-2 中上线「Motion Brush」(运动笔刷)功效,一种可控制生成内容移动的新方法。
这次的玩法,甚至不需要输出笔墨,只要有手就够了。
任选一张图片,画笔涂抹到哪里,哪里就立刻动起来:
不管是水流、云彩、火焰、烟雾还是人物,都能高度还原其动态。这就是传说中的「点石成金」吗?
网友看完表示:我都不敢猜想一年后的视频技能会有多先辈……
毕竟在 2023 年初,从文本生成视频还是一件相当困难的事情。
Runway 曾在今年 2 月推出了 Gen-1,功效非常丰富,包括风格化、故事版、蒙版、渲染、自定义等等。看起来,这是一个专注于「编纂」视频的东西。
但今年 3 月,Gen-2 的面世改变了一切,它新增了笔墨、图片生成视频功效。用户仅需输出笔墨、图象或笔墨加图象的描述,Gen-2 即可在很短的时间内生成相关视频。
这是市场上第一个公开可用的文本到视频模型。比如输出一段纯笔墨「午后的阳光透过纽约阁楼的窗户照进来」,Gen-2 会直接「脑补」出视频:
现在,只需几个 prompt 和手势,我们就能生成像样的视频并进一步编纂,复杂的视频编纂软件和冗长的建造流程一去不复返。
如果将文生图神器 Midjourney 与文生视频神器 Gen-2 结合起来使用,用户完全可以不动笔,直出大片。
当然,Gen-2 也是有竞争对手的,就是 Pika Labs,特别是后者还是免费的。
以上画面由 Pika Labs 生成。
对于这种疯狂卷的态势,一部分用户是非常期待的:「2024 年,Pika Labs 和 Runway 之间的拉扯一定很有意思。」
传闻中,OpenAI 也有视频生成相关的技能。有网友表示:「这让我不禁好奇,OpenAI 的 any-to-any 模型在生成视频方面究竟有多出色,因为这家公司通常都走在别人前面。」
未来的视频和电影建造行业,会因此而颠覆吗?