文生视频

视频生成平台 Runway 获得新技能:更改视频比例,图片拥有“电影级”运镜

视频生成 AI 创企 RunwayML 今天推出了“Expand Video”新功能。用户可通过输入文本提示,在原始画面基础上生成额外内容,灵活调整视频比例,该系统能够在扩展画面时保持视觉效果的统一性。

国产文生视频大模型 Vidu 发布 1.5 版本更新:可保证多不同视角下的一致性

国产文生视频大模型厂商Vidu昨日宣布,Vidu 1.5新版本正式上线,其实现了“世界领先水平”的突破——能够理解多样化的输入,突破“一致性”的难题。

最新测评!美图大模型提前揭秘,这波风格化美到窒息

AI好好用报道编辑:杨文支持1分钟、1080P分辨率的超长视频生成。国产视频大模型再次卷出「新高度」。 前脚快手可灵升级完 1.5 模型,后脚字节就正式进军视频生成。 几乎同一时间,美图公司也突然宣布,自家的奇想大模型(MiracleVision)视频生成能力已完成全面升级。具体而言,它不仅单次文生视频时长、单次图生视频时长均达 5 秒,还支持 1 分钟、帧率 24FPS、分辨率 1080P 的超长视频生成。 而更让人惊喜的,则是它超强的风格化。 比如,写实风格的熊猫,坐在墙根上弹着吉他:视频链接:,戴着墨镜,边走

最强卷王3个月进化9次!可灵AI上新1.5模型,国外网友:太疯狂

传说中的 Sora 公测还遥遥无期,「卷王」可灵又又又上新了。要知道,自今年 6 月发布以来,仅三个月,可灵 AI 就迭代了 9 次。这次它还直接把基座模型升级了,推出可灵 1.5 模型。那么,这个新模型到底强在哪儿?举个例子,我们输入同样的 Prompt:一位女生看到一封信后悲伤起来,不停地哭泣。1.0 模型的效果是这样的:1.5 模型的效果则是这样:(视频来源:X 博主 Pierrick Chevallier)一言以蔽之,可灵 1.5 模型不仅显著提升画质,直出 1080p 视频,还让画面主体的动幅更大、质量更

可灵AI还是火到了马斯克那!

马斯克点赞可灵AI8月20日,AI插画艺术爱好者Déborah在推特上发布一段时长为五秒钟的视频,内容为女人手捧一朵燃烧的玫瑰,画面表现堪称电影级别的画质与动态效果。 而这一视频背后,是由可灵AI完成图生视频过程。 没过多久,这条视频获得了埃隆·马斯克(Elon Musk)的关注,并且他在评论区回复「AI Entertainment is happening fast」。

这个AI小玩物,让马斯克、川建国秒变「缺心眼子」粘土人

机器之能报道编辑:杨文五官乱飞的大佬们,原来这么有喜感。简单且有趣的 AI 小应用极容易出圈,比如说曾经风靡一时的妙鸭相机、粘土滤镜。最近,有人做了一个 iPhone app,只需要一张自拍照,就能生成一段挤眉弄眼的卡通视频。例如,眼皮乱耷拉的搞怪版梁龙:视频链接::实时自定义表情的美女:这个小玩意儿就是 ——Cooraft。目前,Cooraft 这款应用只支持苹果系统,苹果手机和 ipad 用户可在苹果商城下载。今天我们就来体验一下。-1-马斯克、川建国的眉毛要上天Cooraft 提供三种功能,分别是脸部动画、风

超 1.2 万人参加 CVPR 2024,谷歌研究院获得最佳论文

作者:赖文昕 马蕊蕾编辑:陈彩娴北京时间今天凌晨,美国西雅图正在召开的计算机视觉盛会 CVPR 2024 正式公布了最佳论文等奖项。 今年共有 2 篇论文获得了这份全球最重要的计算机视觉领域的大奖,团队成员分别来自谷歌研究院、加州大学圣地亚哥分校、南加州大学、剑桥大学及布兰迪斯大学。 本周(6.17-6.21),第四十一届国际计算机视觉与模式识别会议(CVPR)在美国西雅图拉开帷幕。

快手「可灵」爆火:海外AI圈巨震,中国版Sora一号难求

短短一年后,AI 生成的「吃面条」已经如此自然流畅?这让全球网友都感受到了亿点点震撼。                            图源:,都来自快手刚刚推出的文生视频大模型「可灵」(Kling)。不是预发布、不是纯 Demo 合集,而是直接开放测试的产品级应用,人人都能申请。而且,可灵支持生成最长 2 分钟、30fps 的 1080P 视频,主打从头脑风暴到可发布作品的「一键转化」。(官网地址:)最早一批用上的用户已经「真香」:                              图源:     

Open-Sora 全面开源升级:支持单镜头 16s 视频生成和 720p 分辨率

最近,AI 科技评论发现,国产视频生成模型 Open-Sora 在开源社区悄悄更新了! 现在单镜头支持长达16秒的视频生成,分辨率最高可达720p,并且可以处理任何宽高比的文本到图像、文本到视频、图像到视频、视频到视频和无限长视频的生成需求。 我们来试试效果。

Sora 发布两周后,关于 Sora 的一些冷思考

两周前的今天,北京时间 2 月 16 日,OpenAI 、谷歌、Meta、Stability 都在这一时间节点前后发布文生视频模型成果,但只有 OpenAI  的 Sora 在这场角逐中破圈而出,成功抢占全球的注意力。 可以说,Sora 打响了文生视频大模型行业 2024 年的第一炮。 面对 Sora 着实优异的视频生成效果,短时间内 AIGC 行业内掀起一轮又一轮讨论,一方面,没人想到 OpenAI 的动作如此之快,令人激动兴奋的同时也来不及招架,另一方面,也都在为其 “60秒超长长度”、“单视频多角度镜头”和“世界模型”的等炸裂的效果震惊,并声称会迎来行业洗牌。

Sora 面世,视频生成的 GPT-3 时刻来了

2月16日凌晨,正值中国春节法定节假日期间,OpenAI 毫无预兆地发布了 AI 视频生成大模型 Sora。 看过视频效果后,网友纷纷感叹「现实,不存在了。 」不夸张地说,Sora 的技术结果直接碾压了过去世界范围内所有文生视频的探索结果,颠覆了 AI 短视频生成的现状。

我在模拟世界!OpenAI刚刚公布Sora技术细节:是数据驱动物理引擎

机器之心报道机器之心编辑部先安排好演员,再让他们来演绎。今天,我们都在感受 Sora 的带来的魅力。OpenAI 的首个视频生成模型 Sora,让「一句话生成视频」的前沿 AI 技术向上突破了一大截,引发了业界对于生成式 AI 技术方向的大讨论。Sora 生成的视频范例。提示词:「两艘海盗船在一个咖啡杯中航行、互相战斗的逼真特写视频。」来源:,我们已经见证过许多创业公司提出的视频生成模型。相比之下,OpenAI 提出的新模型不论是效果还是理念上,似乎都具有划时代的意义。有人第一时间总结道,Sora 不是一个简单的视
  • 1