阿里开源视频生成模型Wan 2.1上线即屠榜 4070可流畅运行

近日,阿里巴巴在深夜推出了全新的开源视频生成模型 Wan2.1,该模型凭借14B 的参数量迅速占据了 VBench 榜单的顶端,成为目前视频生成领域的佼佼者。 与此之前发布的 QwQ-Max 不同,Wan2.1在复杂运动的细节处理上表现出色,能够流畅地实现多个人物的同步舞蹈,令人惊叹不已。 官方演示中,Wan2.1不仅成功克服了静态图像生成中的难题,如文字的处理更是达到了新的高度。

近日,阿里巴巴在深夜推出了全新的开源视频生成模型 Wan2.1,该模型凭借14B 的参数量迅速占据了 VBench 榜单的顶端,成为目前视频生成领域的佼佼者。与此之前发布的 QwQ-Max 不同,Wan2.1在复杂运动的细节处理上表现出色,能够流畅地实现多个人物的同步舞蹈,令人惊叹不已。

官方演示中,Wan2.1不仅成功克服了静态图像生成中的难题,如文字的处理更是达到了新的高度。对于普通用户来说,虽然14B 的参数在个人消费级显卡上部署较为困难,但阿里还特别推出了一个1.3B 的小版本,支持480P 分辨率,使用12GB 显存的4070显卡即可流畅运行。

大脑 大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

除了14B 和1.3B 版本,阿里还发布了两个额外的视频生成模型,均采用 Apache2.0协议,意味着用户可以免费商用。在实际操作中,用户可以通过阿里提供的平台访问这款模型,快速生成视频,但由于用户量激增,有时可能会出现等待时间过长的情况。对于有一定技术基础的用户,还可以通过 HuggingFace 和魔搭社区等多种途径自行安装和调试。

Wan2.1最大的亮点在于其技术创新。该模型采用了 Diffusion Transformer 架构,并使用3D 变分自动编码器,专门为视频生成设计。通过引入多种压缩和并行策略,该模型在保证质量的同时,大幅度提高了生成效率。研究表明,Wan 的重建速度是当前同类技术的2.5倍,大大节省了计算资源。

在用户体验方面,Wan2.1也获得了众多好评。无论是生成动态场景中的细节,还是自然的物理效果,模型的表现都让人眼前一亮。用户们通过该模型不仅能够制作出高质量的视频作品,还能轻松实现文字的动态呈现,为创作带来了更多可能。

阿里巴巴的 Wan2.1模型不仅技术先进,而且为广大创作者提供了更多的创作自由度,标志着视频生成技术的又一突破。

相关资讯

超强视频生成模型 Wan2.1 GP:低配GPU也能搞定大片!

近日,DeepBeepMeep 团队在 GitHub 上发布了 Wan2.1GP,一个针对低端 GPU 用户优化的视频生成模型。 该模型基于阿里巴巴的 Wan2.1,旨在为缺乏高性能 GPU 资源的用户提供强大的视频生成能力。 Wan2.1GP 的推出标志着视频生成技术的一个重要进步,尤其是在开放源代码领域。

通义万相开源视频生成模型Wan2.1:8.2G显存即可生成480P视频

近日,通义宣布开源其最新的通义万相大模型 Wan2.1。 Wan2.1是一款专注于高质量视频生成的 AI 模型,凭借其在处理复杂运动、还原真实物理规律、提升影视质感以及优化指令遵循方面的卓越表现,成为了创作者、开发者和企业用户拥抱 AI 时代的首选工具。 在权威评测集 Vbench 中,通义万相 Wan2.1以总分86.22% 的成绩登顶榜首,大幅领先国内外其他知名视频生成模型,如 Sora、Minimax、Luma、Gen3和 Pika 等。

视频训练LoRA来了!Ostris 用 20 张照片打造惊艳 Wan 2.1 LoRA

2025年3月9日,美国加利福尼亚州——开源模型正让文生视频技术变得越来越有趣。 AI 开发者 Ostris(@ostrisai)近日在 X 平台上分享了他使用自家照片训练的 Wan2.1LoRA 模型成果,仅凭约20张照片和一块家用 RTX4090显卡,便实现了令人惊叹的视频生成效果。 这一成果不仅展示了开源技术的潜力,也引发了 X 社区对视频 LoRA 训练工具的热烈讨论。