豆包电脑版上线视频生成功能,部分用户可体验

记者获悉,近日,字节跳动视频生成模型 PixelDance已在豆包电脑版正式开启内测,部分用户已开通体验入口。 内测页面显示,用户每日可免费生成十支视频。  PixelDance视频生成模型于9月底首次发布,最早通过即梦AI、火山引擎面向创作者和企业客户小范围邀测,外部对其多镜头组合、运镜切换及人物运动能力评价较好。

记者获悉,近日,字节跳动视频生成模型 PixelDance已在豆包电脑版正式开启内测,部分用户已开通体验入口。内测页面显示,用户每日可免费生成十支视频。

豆包电脑版上线视频生成功能,部分用户可体验

 PixelDance视频生成模型于9月底首次发布,最早通过即梦AI、火山引擎面向创作者和企业客户小范围邀测,外部对其多镜头组合、运镜切换及人物运动能力评价较好。

早期内测创作者介绍,当PixelDance生成10秒视频时,切换镜头3-5次的效果最佳,场景和角色能保持很好的一致性。通过小幅度、渐进式的提示词描述,PixelDance能生成魔术般的特效。此外,用户还可使用时序提示词、长镜头等技巧,增强视频的复杂度和表现力,对剧情创作非常友好。

目前,基于该模型的视频生成能力已在豆包电脑版陆续开放。豆包相关负责人表示,未来仍将持续开放和优化该功能,更好地帮助普通用户创作和表达。

相关资讯

视频生成新突破:PixelDance,轻松呈现复杂动作与炫酷特效

AI 生成的视频终于能动了。最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。但是,这种一致性的提升似乎是以牺牲视频动态性为代价的。从 Gen-2 的官方宣传视频中可以看出,尽管集合了多个短片段,但每个片段的动态性相对较弱,难以捕捉到人物、动物或物体的清晰动作和运动。近期,Meta 也发布了视频生成模型 Emu Vide

字节版Sora终于来了!一口气两款视频模型,带来的震撼不只一点点

我们用17个Prompt,实测了一把字节的两大视频生成模型。字节憋了个大招。9 月 24 日,字节跳动旗下的火山引擎在深圳办了一场 AI 创新巡展,一口气发布了两款视频生成大模型,正式宣告进军 AI 视频生成。这两款模型,一个名为 PixelDance(以下简称 P 模型),一个名为 Seaweed(以下简称 S 模型),不仅在审美、动幅上提升了一个 level,还破解了多主体互动和一致性难题。话不多说,先整几个视频让大家感受下:一位年轻女生微簇眉头,生气地戴上一副墨镜,这时,男主角入画,紧紧抱住了她。这段 10

AI在用 | 雷总,我把你的出道曲《Are You OK》搞成了动画MV

机器之能报道编辑:杨文以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。我们也欢迎读者投稿亲自实践的创新型用例。投稿邮箱:[email protected]还记得之前的 AI 让火柴人讲搞笑段子吗?(查看详情,请移步:AI 在用 | 免费!Adobe 一分钟生成火柴人搞笑动画,视频、配音一锅出)最近,我们又研究出一个新的玩法:让动画小人