Sora
OpenAI 视频生成服务 Sora 引发隐私担忧,意大利数据监管机构展开调查
感谢意大利数据保护机构 (Garante) 周五宣布,已对微软支持的 OpenAI 公司开发的一项服务展开调查,这个名为 Sora 的服务可以根据文本提示生成视频。监管机构要求 OpenAI 澄清其向用户和非用户告知其产品 Sora 使用的数据的方式是否符合欧盟法规。OpenAI 公司暂未对此事发表评论。意大利数据监管机构是欧盟国家中最为积极的监管机构之一,一直致力于评估人工智能平台是否符合欧盟的数据隐私法规。IT之家注意到,去年该机构就以涉嫌违规使用用户数据为由,禁止了聊天机器人 ChatGPT 在意大利的使用。
Sora 竞争对手融资数千万美元,目前可免费“薅”
机器之能报道编辑:Sia效果确实没法和Sora比,但和其他对手水平差不多。对于需要快速、低成本地制作商业推广视频的主体来说,又多了一个不错的选择。情绪的所有颜色,基于 Genmo 最新模型生成的作品视频链接:"a dramatic black and white photo of a lighthouse at night, crashing waves on shore" AI 视频生成创业公司——以及它的新投资者——在竞争中可能会得到比预想更多的东西。The information 从 3 名知情人士处获悉,A
Sora 时代的 AI 视频生成何去何从?
Sora 作为 OpenAI 最新发布的视频生成模型,在全球范围内引起了热烈讨论。距离上一个引发全民讨论的视频生成模型 Pika 1.0 的发布,不到三个月的时间。Sora 生成的视频有着合理的连贯性、视频主体细节足以达到以假乱真的程度。仿佛一夜之间解决了 AI 生成视频的长度、流畅性、逻辑性等问题。Sora 带来的视觉震撼,让「扔进一部小说、出来一部大片」逐步成为现实。技术的突破令人振奋,一度引发了大佬们关于世界模型的讨论,可见 Sora 早已超出了大众对技术上限的想象。与此同时,Sora 带来的恐慌和焦虑也正在
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键
Sora 的发布让整个 AI 领域为之狂欢,但 LeCun 是个例外。面对 OpenAI 源源不断放出的 Sora 生成视频,LeCun 热衷于寻找其中的失误:归根结底,LeCun 针对的不是 Sora,而是 OpenAI 从 ChatGPT 到 Sora 一致采用的自回归生成式路线。LeCun 一直认为, GPT 系列 LLM 模型所依赖的自回归学习范式对世界的理解非常肤浅,远远比不上真正的「世界模型」。所以,一遇到「Sora 是世界模型」的说法,LeCun 就有些坐不住:「仅仅根据 prompt 生成逼真视频并
0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR
最近,文生视频模型 Sora 掀起了新一轮生成式 AI 模型浪潮,模型的多模态能力引起广泛关注。现在,AI 模型在 3D 内容生成方面又有了新突破。专长于视觉内容生成的 Stability AI 继图片生成(Stable Difussion 3 上线)、视频生成(Stable Video 上线)后紧接在 3D 领域发力,今天宣布携手华人团队 VAST 开源单图生成 3D 模型 TripoSR。TripoSR 能够在 0.5s 的时间内由单张图片生成高质量的 3D 模型,甚至无需 GPU 即可运行。TripoSR 模
Sora 发布两周后,关于 Sora 的一些冷思考
两周前的今天,北京时间 2 月 16 日,OpenAI 、谷歌、Meta、Stability 都在这一时间节点前后发布文生视频模型成果,但只有 OpenAI 的 Sora 在这场角逐中破圈而出,成功抢占全球的注意力。 可以说,Sora 打响了文生视频大模型行业 2024 年的第一炮。 面对 Sora 着实优异的视频生成效果,短时间内 AIGC 行业内掀起一轮又一轮讨论,一方面,没人想到 OpenAI 的动作如此之快,令人激动兴奋的同时也来不及招架,另一方面,也都在为其 “60秒超长长度”、“单视频多角度镜头”和“世界模型”的等炸裂的效果震惊,并声称会迎来行业洗牌。
大一统视频编辑框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景
随着 Sora 的爆火,人们看到了 AI 视频生成的巨大潜力,对这一领域的关注度也越来越高。除了视频生成,在现实生活中,如何对视频进行编辑同样是一个重要的问题,且应用场景更为广泛。以往的视频编辑方法往往局限于「外观」层面的编辑,例如对视频进行「风格迁移」或者替换视频中的物体,但关于更改视频中对象的「动作」的尝试还很少。 UniEdit 视频编辑结果(动作编辑、风格迁移、背景替换、刚性 / 非刚性物体替换)本文中,来自浙江大学、微软亚洲研究院、和北京大学的研究者提出
微软37页论文逆向工程Sora,得到了哪些结论?
一篇论文回顾 Sora 文生视频技术的背景、技术和应用。追赶 Sora,成为了很多科技公司当下阶段的新目标。研究者们好奇的是:Sora 是如何被 OpenAI 发掘出来的?未来又有哪些演进和应用方向?Sora 的技术报告披露了一些技术细节,但远远不足以窥其全貌。在最近的一篇文章中,微软研究院和理海大学的研究者根据已发表的技术报告和逆向工程,首次全面回顾了 Sora 的背景、相关技术、新兴应用、当前局限和未来机遇。论文标题:Sora: A Review on Background, Technology, Limit
想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速
作为 2024 开年王炸,Sora 的出现树立了一个全新的追赶目标,每个文生视频的研究者都想在最短的时间内复现 Sora 的效果。根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表征形式,并通过 Transformer 和扩散模型结合,展现了卓越的扩展(scale)特性。在报告公布后,Sora 核心研发成员 William Peebles 和纽约大学计算机科学助理教授谢赛宁合著的论文《Scalable Diffusion Models with Transform
重磅发布!Stable Video 零基础使用教程及应用案例
前言
上周 Stable Video 开放公测,可以生成 4s 视频,我第一时间体验了一波。
相比 Sora 可生成 60s 多角度多机位多角色的视频,Stable Video 效果没有那么惊艳。但是相比市面上主流的 AI 视频 Runway、pika 等还是有一定优势的,下文中我也会进行效果对比。
目前 Stable Video 对所有用户都可以免费开发,每天可领 150 积分,图生视频每使用一次消耗 10 积分,文生视频消耗 11 积分,还可以付费升级。
接下来让我们一起来试一试吧。
关于 Sora:一、初步体
从 Sora 的发展史,聊聊设计师如何面对 AI 焦虑
经过春节小休整,很多朋友都鼓起信心重新出发,因为吉祥话听多了还是会受用,没想到返岗途中还没来得及跟大家道句开工大吉,资讯话题就被Sora的发布信息填满。
关于这款神器的详细介绍:Sora的发布让人感叹科幻电影都不敢这样拍,而且很多权威平台都认为奥特曼的大招还没亮出来,几句话做60秒视频只是前戏,先吊吊大家胃口,为他后面融资铺垫。此图最近已经符号化了
Sora这个名字据说来自日文中的“空”(そら sora),象征“无限创造力”,众所周知,空也是佛家用语,以我的无知只能找来《道德经》的“无”来应战,无中生有,有生于无,
Sora 面世,视频生成的 GPT-3 时刻来了
2月16日凌晨,正值中国春节法定节假日期间,OpenAI 毫无预兆地发布了 AI 视频生成大模型 Sora。 看过视频效果后,网友纷纷感叹「现实,不存在了。 」不夸张地说,Sora 的技术结果直接碾压了过去世界范围内所有文生视频的探索结果,颠覆了 AI 短视频生成的现状。
国内公司有望做出Sora吗?这支清华系大模型团队给出了希望
在 Sora 代表的视频生成路线上,国内公司其实已有一定的技术储备。2023 年年底,很多人都预测,未来一年将是视频生成快速发展的一年。但出人意料的是,农历春节刚过,OpenAI 就扔出了一个重磅炸弹 —— 能生成 1 分钟流畅、逼真视频的 Sora。它的出现让很多研究者担心:国内外 AI 技术的差距是不是又拉大了? Sora 生成的新视频根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表示形式,并通过 Tr
LeCun怒斥Sora是世界模型,自回归LLM太简化了
LeCun 对「世界模型」给出了最新定义。最近几天,Sora 成为了全世界关注的焦点。与之相关的一切,都被放大到极致。Sora 如此出圈,不仅在于它能输出高质量的视频,更在于 OpenAI 将其定义为一个「世界模拟器」(world simulators)。英伟达高级研究科学家 Jim Fan 甚至断言:「Sora 是一个数据驱动的物理引擎」,「是一个可学习的模拟器,或『世界模型』」。「Sora 是世界模型」这种观点,让一直将「世界模型」作为研究重心的图灵奖得主 Yann LeCun 有些坐不住了。在 LeCun 看
7000字干货!Sora 提示词秘籍和竞品效果对比
2024 年 2 月 16 日凌晨,OpenAI 正式发布了文本到视频生成模型 Sora,直接生成 60s 视频,多角色多镜头切换的视频,还上了央视新闻。
目前 Sora 并未开放,只向少数导演艺术家开放邀请码。
至此,好莱坞的时代结束了,人人可以做视频电影的时代到来啦!
今天我们就 Sora 生成视频来拆解提示词秘籍公式,竞品视频生成效果对比,解析 Sora 优势劣势和 Sora 模型原理。一、AIGC 视频模型效果对比
首先让我们看看,目前主流的 AI 视频工具 Runway、Pika、Stable Video
幼儿园学历都能看懂! Sora 技术原理科普
本文来源于公众号赛博禅心 ,作者金色传说大聪明
写在前面本文的阅读门槛很高,需要至少幼儿园毕业
本文讲述 Sora 的 Spacetime Patches 技术,此处意义为时空碎片
图片主要来自《哆啦 A 梦:二次元口袋照相机》
OpenAI 好棒,哆啦 A 梦好棒,我好棒!大雄慵懒地躺在房间的地毯上,眼神迷离地看着天花板上的光斑。他翻来覆去地玩着手中的老旧玩具小兵,回想着上个暑假和小伙伴们的那场刺激的野营冒险。大雄:“哆啦 A 梦,那次野营真的很好玩,但我现在只能记得一点点。要是能有办法随时重温那种感觉就好了。”
国内高校打造类Sora模型VDT,通用视频扩散Transformer被ICLR 2024接收
2 月 16 日,OpenAI Sora 的发布无疑标志着视频生成领域的一次重大突破。Sora 基于 Diffusion Transformer 架构,和市面上大部分主流方法(由 2D Stable Diffusion 扩展)并不相同。为什么 Sora 坚持使用 Diffusion Transformer,其中的原因从同时期发表在 ICLR 2024(VDT: General-purpose Video Diffusion Transformers via Mask Modeling)的论文可以窥见一二。这项工作由
OpenAI工程师必备经典《苦涩的教训》,原来20多年前就有了原型
大量数据学习涌现出来的能力,终于超越了人们的想象。OpenAI 推出视频生成模型 Sora 已经一周的时间了,热度不减,作者团队还在持续放出让人眼前一亮的视频。比如「一群爱冒险的小狗探索天空废墟的电影预告片」,Sora 一次生成并自己完成剪辑。当然,一个个生动、逼真的 AI 视频让人们好奇为什么是 OpenAI 率先打造出了 Sora 并能够跑通所有 AGI 技术栈呢?这一问题在社交媒体上引发了热烈的讨论。其中,在一篇知乎文章中,加州大学伯克利分校计算机科学博士、作者 @SIY.Z 分析了 OpenAI 成功的一些