Yann LeCun
LeCun团队新作:在世界模型中导航
现实世界版的 Genie-2? 最近,世界模型(World Models)似乎成为了 AI 领域最热门的研究方向。 继 World Labs(李飞飞)、谷歌 DeepMind 接连发布自己的世界模型研究之后,Meta FAIR 的 Yann LeCun 团队也加入了战场,也在同一周之内发布了导航世界模型(Navigation World Models/NWM)。
LeCun 的世界模型初步实现!基于预训练视觉特征,看一眼任务就能零样本规划
机器之心报道,编辑:Panda。
LeCun批评o1根本不像研究,Noam Brown回怼:已发表的研究都是废话
图灵奖三巨头之一 Yann LeCun 又和别人吵起来了,这次是 Noam Brown。Noam Brown 为 OpenAI o1 模型的核心贡献者之一,此前他是 Meta FAIR 的一员,主导了曾火遍一时的 CICERO 项目,在 2023 年 6 月加入 OpenAI 。这次吵架的内容就是围绕 o1 展开的。众所周知,从 AI 步入新的阶段以来,OpenAI 一直选择了闭源,o1 的发布也不例外。这也引来了广大网友的吐槽,干脆叫 CloseAI 算了,反观 Meta,在开源领域就做的很好,o1 的发布,更
Yann LeCun不看好强化学习:「我确实更喜欢 MPC」
五十多年前的理论还值得再研究一下? 「相比于强化学习(RL),我确实更喜欢模型预测控制(MPC)。至少从 2016 年起,我就一直在强调这一点。强化学习在学习任何新任务时都需要进行极其大量的尝试。相比之下,模型预测控制是零样本的:如果你有一个良好的世界模型和一个良好的任务目标,模型预测控制就可以在不需要任何特定任务学习的情况下解决新任务。这就是规划的魔力。这并不意味着强化学习是无用的,但它的使用应该是最后的手段。」在最近发布的一个帖子中,Meta 首席人工智能科学家 Yann LeCun 发表了这样一番看法。一直
LeCun转发,首个半导体设计开源大模型SemiKong问世,重塑芯片制造流程
编辑 | ScienceAI终于,半导体设计行业有了专属的开源大模型!7 月 9 日,国外公司 Aitomatic 宣布推出「Semi Kong」,这是世界上首个专为半导体行业设计的开源 AI 大型语言模型(LLM)。SemiKong 在 2024 年 Semicon West 展会上亮相,旨在彻底改变半导体工艺和制造技术,并有可能在未来五年内重塑价值 5000 亿美元的半导体行业。图示:LeCun 在 X 转发了 SemiKong 内容。(来源:X)Yann LeCun 在 X 转发了这条激动人心的内容:「这是专
ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了
如果 GPT-4 在模拟基于常识任务的状态变化时准确率都只有约 60%,那么我们还要考虑将大语言模型作为世界模拟器来使用吗?最近两天,一篇入选 ACL 2024 的论文《Can Language Models Serve as Text-Based World Simulators?》在社交媒体 X 上引发了热议,就连图灵奖得主 Yann LeCun 也参与了进来。这篇论文探讨的问题是:当前语言模型本身是否可以充当世界模拟器,并正确预测动作如何改变不同的世界状态,从而避免大量手动编码的需要呢?针对这一问题,来自亚利
LeCun上月球?南开、字节开源StoryDiffusion让多图漫画和长视频更连贯
有了 StoryDiffusion,更加一致性的图像和视频生成得到了保障。两天前,图灵奖得主 Yann LeCun 转载了「自己登上月球去探索」的长篇漫画,引起了网友的热议。其实,产出这些漫画的研究出自南开大学、字节跳动等机构。在《StoryDiffusion:Consistent Self-Attention for long-range image and video generation》这篇论文中,该研究团队提出了一种名为 StoryDiffusion 的新方法,用于生成一致的图像和视频以讲述复杂故事。论文
LeCun哈佛演讲PPT放出:唱衰自回归LLM,指明下一代AI方向
LeCun 一如既往地不看好自回归 LLM。机器如何能像人类和动物一样高效地学习?机器如何学习世界运作方式并获得常识?机器如何学习推理和规划……当一系列问题被提出时,有人回答自回归 LLM 足以胜任。然而,知名 AI 学者、图灵奖得主 Yann LeCun 并不这么认为,他一直唱衰自回归 LLM。近日 LeCun 在哈佛大学的演讲内容深入探讨了这些问题,内容长达 95 页,可谓干货满满。LeCun 给出了一个模块化的认知架构,它可能构成回答这些问题的途径。该架构的核心是一个可预测的世界模型,它允许系统预测其行动的后
Transformer本可以深谋远虑,但就是不做
语言模型是否会规划未来 token?这篇论文给你答案。「别让 Yann LeCun 看见了。」Yann LeCun 表示太迟了,他已经看到了。今天要介绍的这篇 「LeCun 非要看」的论文探讨的问题是:Transformer 是深谋远虑的语言模型吗?当它在某个位置执行推理时,它会预先考虑后面的位置吗?这项研究得出的结论是:Transformer 有能力这样做,但在实践中不会这样做。 我们都知道,人类会思而后言。数十年的语言学研究表明:人类在使用语言时,内心会预测即将出现的语言输入、词或句子。不同于人类,现在的语言
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
在人工智能领域,很少有像 Yann LeCun 这样的学者,在 65 岁的年龄还能高度活跃于社交媒体。一直以来,Yann LeCun 都是以「直言不讳的批评者」形象活跃于人工智能领域。他始终支持开源,并带领 Meta 的团队推出了占据如今开源大模型领域半壁江山的 Llama 2;他对很多人深感恐慌的人工智能末日论不以为然,坚信 AGI 的到来一定是件好事……近日,LeCun 又一次来到 Lex Fridman 的播客,展开了一场接近三个小时的对谈,内容涉及开源的重要性、LLM 的局限性、为什么人工智能末日论者是错误
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键
Sora 的发布让整个 AI 领域为之狂欢,但 LeCun 是个例外。面对 OpenAI 源源不断放出的 Sora 生成视频,LeCun 热衷于寻找其中的失误:归根结底,LeCun 针对的不是 Sora,而是 OpenAI 从 ChatGPT 到 Sora 一致采用的自回归生成式路线。LeCun 一直认为, GPT 系列 LLM 模型所依赖的自回归学习范式对世界的理解非常肤浅,远远比不上真正的「世界模型」。所以,一遇到「Sora 是世界模型」的说法,LeCun 就有些坐不住:「仅仅根据 prompt 生成逼真视频并
ICLR 2024 Oral:长视频中噪声关联学习,单卡训练仅需1天
在 2024 世界经济论坛的一次会谈中,图灵奖得主 Yann LeCun 提出用来处理视频的模型应该学会在抽象的表征空间中进行预测,而不是具体的像素空间 [1]。借助文本信息的多模态视频表征学习可抽取利于视频理解或内容生成的特征,正是促进该过程的关键技术。然而,当下视频与文本描述间广泛存在的噪声关联现象严重阻碍了视频表征学习。因此本文中,研究者基于最优传输理论,提出鲁棒的长视频学习方案以应对该挑战。该论文被机器学习顶会 ICLR 2024 接收为了 Oral。论文题目:Multi-granularity Corre
端侧最强,Meta田渊栋等人卷10亿以下参数小模型,LeCun:小技巧启动
Meta 推出 MobileLLM 系列,一款适用于移动设备上的「小」模型。「在移动设备上运行 LLM?可能需要 Meta 的一些技巧。」刚刚,图灵奖得主 Yann LeCun 在个人社交平台表示。他所宣传的这项研究来自 Meta 最新论文《 MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases 》,在众多作者中也有我们熟悉的来自 Meta FAIR 田渊栋。田渊栋表示:「我们的 MobileLLM 预
LeCun怒斥Sora是世界模型,自回归LLM太简化了
LeCun 对「世界模型」给出了最新定义。最近几天,Sora 成为了全世界关注的焦点。与之相关的一切,都被放大到极致。Sora 如此出圈,不仅在于它能输出高质量的视频,更在于 OpenAI 将其定义为一个「世界模拟器」(world simulators)。英伟达高级研究科学家 Jim Fan 甚至断言:「Sora 是一个数据驱动的物理引擎」,「是一个可学习的模拟器,或『世界模型』」。「Sora 是世界模型」这种观点,让一直将「世界模型」作为研究重心的图灵奖得主 Yann LeCun 有些坐不住了。在 LeCun 看
用扩散模型生成网络参数,LeCun点赞尤洋团队新研究
如果你有被 Sora 生成的视频震撼到,那你就已经见识过扩散模型在视觉生成方面的巨大潜力。当然,扩散模型的潜力并不止步于此,它在许多其它不同领域也有着让人期待的应用前景,更多案例可参阅机器之心不久前的报道《爆火Sora背后的技术,一文综述扩散模型的最新发展方向》。近日,来自新加坡国立大学的尤洋团队、加州大学伯克利分校、Meta AI Research 的一项新研究找到了扩散模型的一个新应用方向:用来生成神经网络的模型参数!论文地址:::Neural Network Diffusion这样一来,似乎就可以使用现有的神
谷歌Gemini生图功能紧急关闭,口碑一夜塌房,Yann LeCun:我早就知道
Gemini 好像终于被玩坏了。去年年底,谷歌 Gemini 震撼了业界,它是谷歌「最大、最有能力和最通用」的 AI 系统,号称第一个原生多模态大模型,能力超越 GPT-4,也被认为是谷歌反击微软和 OpenAI 的强大工具。对此,在 2 月 8 日,谷歌还把自家对标 ChatGPT 的服务 Bard 更名为 Gemini,以着重体现新使命 —— 旨在提供对「最强模型系列」的访问。上周谷歌还火速更新了 Gemini Pro 1.5 版。结果,推出不到一个月,这个 Gemini 就翻车了。多离谱呢,作为一个多模态的生
Sora到底懂不懂物理世界?一场头脑风暴正在AI圈大佬间展开
Sora 到底是不是物理引擎甚至世界模型?图灵奖得主 Yann LeCun、Keras 之父 Francois Chollet 等人正在深入探讨。最近几天,OpenAI 发布的视频生成模型 Sora 成了全世界关注的焦点。和以往只能生成几秒钟视频的模型不同,Sora 把生成视频的长度一下子拉长到 60 秒。而且,它不仅能了解用户在 Prompt 中提出的要求,还能 get 到人、物在物理世界中的存在方式。以经典的「海盗船在咖啡杯中缠斗」为例。为了让生成效果看起来逼真,Sora 需要克服以下几个物理难点: 规模和比
开源大模型正在重塑企业AI应用,16个案例看看它们如何落地
企业运作新引擎:开源大模型。各种性能优异的大模型横空出世,开源大型语言模型在企业界的应用也逐渐引起广泛关注。不过,这也使新的问题浮出水面,企业应该怎样有效地部署和应用这些模型来发挥它们最大的价值呢?图灵奖得主 Yann LeCun 在 X 上向大家分享了一篇 VentureBeat 的文章。其探讨了开源 LLM 在商业环境中的潜力、挑战以及它们在不同行业中的实际应用案例。原文链接: 和其他专家认为,开源 LLM 可能会对企业中的生成式人工智能产生更强大的影响。这种影响力可能超过了像 OpenAI 的 ChatGPT