Adobe 宣布,将于今年年底前推出由 Adobe Firefly Video 模型驱动的视频生成功能,届时用户可以在 Premiere Pro 测试版应用和独立网站上体验这一功能。
Adobe 表示目前正在内部测试三种功能:生成续帧 (Generative Extend)、文本转视频 (Text to Video) 和图像转视频 (Image to Video),并将在近期开放公测。
生成续帧功能允许用户将现有视频延长两秒,并将于今年晚些时候嵌入 Premiere Pro 测试版应用程序中。文本转视频和图像转视频模型则能够根据文本提示或输入图像生成时长五秒的视频,该功能也将在今年晚些时候上线 Firefly 独立网站。Adobe 表示未来可能会进一步延长视频生成时长。
AI在线注意到,近年来,OpenAI 的 Sora 和 Runway 的 Gen-3 Alpha 等生成式人工智能模型层出不穷,它们能够在几分钟内生成视频片段,而人工创作则需要数小时。然而,这些早期工具通常被认为可控性较差,难以用于专业创作环境。
对此,Adobe 公司的首席技术官 (CTO) 伊莱・格林菲尔德 (Ely Greenfield) 表示,Adobe 相信可控性是其 Firefly 人工智能工具的一大优势,用户对能够补充或加速现有工作流程的 Firefly 人工智能工具存在“巨大需求”。例如,格林菲尔德指出,去年添加到 Adobe Photoshop 中的 Firefly 生成填充功能是“过去十年间我们推出过的使用频率最高的的功能之一”。
此外,Adobe 表示 Firefly 的文本转视频功能在拼写方面表现出色,这是人工智能视频模型经常遇到的挑战。
出于安全考虑,Adobe 在初期采取了较为谨慎的做法。格林菲尔德表示,Firefly 的视频模型会屏蔽裸露、毒品和酒精等内容的生成。他还补充说,Adobe 的视频生成模型不会以公众人物(例如政客和名人)为训练对象。
Adobe 目前尚未透露这些人工智能视频功能的定价,对于其他 Firefly 工具,Adobe 为 Creative Cloud 用户提供了一定数量的“生成点数”,一个点数通常可以生成一个结果,更高端的套餐可以获得更多的点数。