PixelDance
豆包电脑版上线视频生成功能,部分用户可体验
记者获悉,近日,字节跳动视频生成模型 PixelDance已在豆包电脑版正式开启内测,部分用户已开通体验入口。 内测页面显示,用户每日可免费生成十支视频。 PixelDance视频生成模型于9月底首次发布,最早通过即梦AI、火山引擎面向创作者和企业客户小范围邀测,外部对其多镜头组合、运镜切换及人物运动能力评价较好。
字节版Sora终于来了!一口气两款视频模型,带来的震撼不只一点点
我们用17个Prompt,实测了一把字节的两大视频生成模型。字节憋了个大招。9 月 24 日,字节跳动旗下的火山引擎在深圳办了一场 AI 创新巡展,一口气发布了两款视频生成大模型,正式宣告进军 AI 视频生成。这两款模型,一个名为 PixelDance(以下简称 P 模型),一个名为 Seaweed(以下简称 S 模型),不仅在审美、动幅上提升了一个 level,还破解了多主体互动和一致性难题。话不多说,先整几个视频让大家感受下:一位年轻女生微簇眉头,生气地戴上一副墨镜,这时,男主角入画,紧紧抱住了她。这段 10
视频生成新突破:PixelDance,轻松呈现复杂动作与炫酷特效
AI 生成的视频终于能动了。最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。但是,这种一致性的提升似乎是以牺牲视频动态性为代价的。从 Gen-2 的官方宣传视频中可以看出,尽管集合了多个短片段,但每个片段的动态性相对较弱,难以捕捉到人物、动物或物体的清晰动作和运动。近期,Meta 也发布了视频生成模型 Emu Vide
- 1