DeepMind

旨在构建首个通用生物学AI模型,前Google DeepMind科学家联手创建Biooptimus

编辑 | X随着法国初创企业生态系统的持续繁荣,比如 Mistral、Poolside 和 Adaptive。2 月 20 日,总部位于巴黎的 Biooptimus 在获得 3500 万美元的种子轮融资后,从隐身中脱颖而出,其使命是建立第一个用于生物学的通用人工智能基础模型。新的开放科学模型将把不同规模的生物学与生成人工智能连接起来——从分子到细胞、组织和整个生物体。Bioptimus 联合了一个由 Google DeepMind alumni 和 Owkin 科学家组成的团队,其中 AI 生物技术初创公司 Owk

DeepMind论文登上Nature:困扰数学家几十年的难题,大模型发现全新解

除了模仿人类说话、写作、写代码,大模型还能用来发现新知识。作为今年 AI 圈的顶流,大型语言模型(LLM)擅长的是组合概念,并且可以通过阅读、理解、写作和编码来帮助人们解决问题。但它们能发现全新的知识吗?由于 LLM 已被证明存在「幻觉」问题,即生成与事实不符的信息,因此利用 LLM 来做可验证的正确发现是一项挑战。现在,来自 Google DeepMind 的研究团队提出了一种为数学和计算机科学问题搜索解决方案的新方法 ——FunSearch。FunSearch 的工作原理是将预训练的 LLM(以计算机代码的形式

某「新化合物」90年前就有了?伦敦大学学院教授对DeepMind参与的「A-Lab」提出质疑

编辑 | 紫罗上周,Google DeepMind 和加州大学伯克利分校的一组研究人员在《Nature》杂志上发表了一篇备受期待的论文,提出了一个「自主实验室」——A-Lab,旨在利用 AI 和机器人技术加速新材料的发现和合成。被称为「自动驾驶实验室」的 A-Lab 展示了一个雄心勃勃的愿景,即当配备计算建模、机器学习、自动化和自然语言处理方面的最新技术时,人工智能驱动的系统可以在科学研究中实现什么目标。A-Lab 如何工作。(来源:UC Berkeley/Nature)然而,在发表后的几天内,人们开始对论文中提出

发现38万种新材料、17天自主合成41种新化合物,DeepMind一日两篇论文登上Nature

编辑 | 萝卜皮从计算机芯片、电池到太阳能电池板等现代技术都依赖于无机晶体。开发这些新技术,所需的晶体必须稳定,否则材料就会分解,而每个新的、稳定的晶体背后可能需要研究人员数月或者更久的艰苦实验。Google DeepMind 材料团队分享了 220 万颗新晶体的发现,相当于近 800 年的知识。该团队推出了新的深度学习工具,用于材料探索的图网络 (GNoME),可通过预测新材料的稳定性来显著提高发现的速度和效率。论文链接: GNoME,科学家可以使人类已知的技术上可行的材料数量成倍增加。在其 220 万个预测中,

哼两句就能变歌曲,还有国宝歌手帮你演绎,音乐 Dall·E 2 时刻来了

机器之能报道编辑:Sia一个模型 两个功能=仅从文本提示就能生成引人入胜的音乐和歌声。你是否有过这样的体验,脑海不时冒出各种旋律,却因对乐器一窍不通,无法将这些创意释放出来?今天 ,YouTube 和 Google DeepMind 强强联合推出的新服务能让你的创意和音乐实现无缝转化。在 Google DeepMind 提供的最复杂的 AI 音乐生成系统 Lyria 帮助下,YouTube 正在测试新的音乐生成功能:仅用文本提示或者简单哼唱几句,AI 就能立刻生成一段引人入胜的音乐或歌曲。最先推出的一个服务叫 Dr

谷歌DeepMind给AGI划等级,猜猜ChatGPT在哪个位置

AGI 该如何划分,谷歌 DeepMind 给出了标准。我们到底该如何定义 AGI(通用人工智能)?如果你要求 100 位 AI 专家进行解答,你可能会得到 100 个相关但不同的定义。现阶段,AGI 是 AI 研究中一个重要且存在争议的概念,有研究者认为 AGI 已经出现在最新一代大语言模型(LLM)中;还有一些人预测人工智能将在大约十年内超越人类,甚至断言当前的 LLM 就是 AGI。深入理解 AGI 的概念很重要,因为它映射了人工智能所要达到的目标、对事物的预测以及带来的风险。我们该如何划分 AGI 等级呢?

增大模型依然有用,DeepMind用2800亿参数的Gopher,测试语言系统极限

DeepMind 连发三篇论文,全面阐述大规模语言模型依然在进展之中,能力也在继续增强。近年来,国内外各大 AI 巨头的大规模语言模型(large language model,LLM)一波接着一波,如 OpenAI 的 GPT-3、智源研究院的悟道 2.0 等。大模型已然成为社区势不可挡的发展趋势。然而,当前语言模型存在着一些问题,比如逻辑推理较弱。那么,我们是否可以仅通过添加更多数据和算力的情况下改进这些问题呢?或者,我们已经达到了语言模型相关技术范式的极限?今日,DeepMind「一口气」发表了三篇论文,目的

DeepMind联合UCL,推出2021强化学习最新课程

DeepMind 的研究科学家和工程师亲自讲授了一套强化学习课程,目前已全部上线。DeepMind 作为全球顶级 AI 研究机构,自 2010 年创建以来已有多项世界瞩目的研究成果,例如击败世界顶级围棋玩家的 AlphaGo 和今年高效预测的蛋白质结构的 AlphaFold。近几年,DeepMind 联合伦敦大学学院(UCL)推出了一些人工智能线上课程,今年他们联合推出的「2021 强化学习系列课程」现已全部上线。该课程由 DeepMind 的研究科学家和工程师亲自讲授,旨在为学生提供对现代强化学习的全面介绍。课程