资讯列表
更高准确性,覆盖蛋白、核酸、复合物等更多分子,DeepMind发布AlphaFold新版本
编辑 | ScienceAI自 2020 年发布以来,AlphaFold 彻底改变了人们对蛋白质及其相互作用的理解方式。Google DeepMind 和 Isomorphic Labs 一直在共同努力,为更强大的 AI 模型奠定基础,将覆盖范围从蛋白质扩展到全方位的生物相关分子。2023 年 10 月 31 日,该研究团队分享了下一代 AlphaFold 的最新进展。其最新的模型现在可以对蛋白质数据库 (PDB) 中的几乎所有分子进行预测,通常达到原子精度。新版模型 AlphaFold-latest (暂称)极大
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
大模型看书,从来没有这么快过。国内大模型创业公司,正在技术前沿创造新的记录。10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。这相当于让大模型一次处理约 35 万个汉字,长度达到了 GPT-4(32K token,约 2.5 万字)的 14 倍,Claude 2.0(100K token,约 8 万字) 的 4.4 倍。换句话说,Baichuan2-192K 可以一次性读完一本《三体 2》,是全球处理上下文窗口
吴恩达加入图灵奖得主讨论:「AI灭绝论」弊大于利
现在双方 2:2 了。关于「AI灭绝论」引发的一系列争论,各路大佬们又吵起来了。这次加入争吵的是著名人工智能学者、斯坦福大学计算机科学系教授吴恩达。在此之前,深度学习三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 的辩论已经开始。Hinton 和 Bengio 的观点基本一致,他们认为需要加强对 AI 技术的监管,例如,就在前几日, Hinton 和 Bengio 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施,将安
GPT-4写代码,DALL·E 3+MJ搞定画面,AI版「愤怒的南瓜」来袭
这个「愤怒的南瓜」游戏玩起来简单,创建起来却需要一些诀窍。自 GPT 系列对话大模型以及 DALL・E、Midjourney 等文生图大模型兴起以来,基于它们的硬核、有趣二创应用花样频出,让普通人切身地体验到了大模型的魅力。今天又一个这样的游戏项目引起了我们的注意。推特用户 @javilopen 使用 GPT-4、DALL・E 3 和 Midjourney 编写了小游戏「愤怒的南瓜」(PS:如有雷同纯属巧合),其中 GPT-4 负责所有的编码工作,DALL・E 3 和 Midjourney 负责图形部分。游戏画面、
四万字详解AI对齐:北大联合多高校团队发布对齐全面性综述
通用模型时代下,当今和未来的前沿 AI 系统如何与人类意图对齐?通往 AGI 的道路上,AI Alignment (AI 对齐) 是安全打开 “潘多拉魔盒” 的黄金密钥。论文(持续更新):arxiv.org/abs/2310.19852AI Alignment 纵览网站(持续更新):www.alignmentsurvey.comGitHub:github.com/PKU-Alignment/AlignmentSurveyNewsletter & Blog(邮件订阅,定期更新):alignmentsurvey.sub
斯坦福马腾宇创业,大模型方向,Manning、 Christopher Ré是顾问
机器之能报道编辑:吴昕10月31日,清华大学 2012 届姚班校友,现任斯坦福大学助理教授马腾宇在社交媒体上宣布创业消息,成立 Voyage AI ——一家致力于构建嵌入/矢量化模型,帮助大型语言模型( LLM )获得更好检索质量的初创。Voyage AI 联合创始人兼 CEO 马腾宇介绍道,Voyage 团队由一群才华横溢的人工智能研究人员组成,包括斯坦福大学教授以及来自斯坦福大学、MIT的博士。公司希望赋能客户构建更好的 RAG 应用程序,也提供定制化服务,将客户LLM产品准确率提升「10-20% 。」检索增强
服务中通快运双十一运营 智加科技联合江淮汽车完成智能重卡首批交付
2023年10月31日,中通快运迎来了首批10台搭载智加科技自动驾驶系统智加领航的智能重卡江淮汽车K7 的正式交付。该车辆将投入双十一快递快运业务运营,覆盖长三角、珠三角、京津冀等核心经济圈的黄金线路。此举对于快运行业发展以智能重卡为主要运力的智慧物流有着标杆意义。中通快运董事长兼总裁赖建法、常务副总裁唐建民、陆运管理中心总监章永明、资产管理中心总监邵晟,智加科技总经理容力、智加科技副总经理、工程副总裁王磊、智加科技销售副总裁董明刚,江淮汽车重型车销售公司总经理张晋等嘉宾出席本次自动驾驶重卡交车仪式。图注:从左至右
哈工大&南医大开发深度学习框架,用于从单细胞RNA测序数据中识别细胞间相互作用
编辑 | 萝卜皮细胞间相互作用(CCIs)在细胞分化、组织稳态和免疫反应等许多生物过程中发挥着关键作用。随着高通量单细胞RNA测序(scRNA-seq)技术的快速发展,从不断增加的 scRNA-seq 数据中识别CCIs变得非常重要。然而,受算法限制,当前基于统计策略的计算方法忽略了高度稀疏性和异质性的 scRNA-seq 数据中包含的一些关键潜在信息。哈尔滨工业大学和南方医科大学的研究团队开发了一个名为 DeepCCI 的深度学习框架,用于从 scRNA-seq 数据中识别有意义的 CCI。在灵活且易于使用的软件
拜登签署首个生成AI行政命令,却曝露出监管的尴尬
机器之能报道编辑:sia冗长的行政命令立场摇摆,内容复杂如拼盘,像生成AI技术一样让人困惑。人工智能很可能成为通向新繁荣时代的桥梁,但要确保我们所有人都能分享其利益并避免其风险,仅靠公司章程远远不够,还要有强有力的新政治。今天,美国总统拜登签署了一项重要行政命令——《关于安全、可靠、可信开发和使用人工智能的行政命令》(以下简称「命令」),提供了首个有关生成式人工智能的规则,共有八大目标:1、为AI安全制定新标准(New Standards for AI Safety and Security)2、保护美国人的隐私(
哈工大开发深度学习框架,用于从单细胞RNA测序识别细胞相互作用
编辑 | 萝卜皮细胞间相互作用(CCIs)在细胞分化、组织稳态和免疫反应等许多生物过程中发挥着关键作用。随着高通量单细胞RNA测序(scRNA-seq)技术的快速发展,从不断增加的 scRNA-seq 数据中识别CCIs变得非常重要。然而,受算法限制,当前基于统计策略的计算方法忽略了高度稀疏性和异质性的 scRNA-seq 数据中包含的一些关键潜在信息。哈尔滨工业大学和南方医科大学的研究团队开发了一个名为 DeepCCI 的深度学习框架,用于从 scRNA-seq 数据中识别有意义的 CCI。在灵活且易于使用的软件
千亿规模参数,阿里云通义千问进化到2.0:性能超GPT-3.5,加速追赶GPT-4
10 月 31 日,阿里云正式发布千亿级参数大模型通义千问 2.0。在 10 个权威测评中,通义千问 2.0 综合性能超过 GPT-3.5,正在加速追赶 GPT-4。当天,通义千问 APP 在各大手机应用市场正式上线,所有人都可通过 APP 直接体验最新模型能力。过去 6 个月,通义千问 2.0 在性能上取得巨大飞跃,相比 4 月发布的 1.0 版本,通义千问 2.0 在复杂指令理解、文学创作、通用数学、知识记忆、幻觉抵御等能力上均有显著提升。目前,通义千问的综合性能已经超过 GPT-3.5,加速追赶 GPT-4。
通义千问2.0正式亮相,阿里云全面升级AI基础设施,中国大模型公司一半跑在阿里云上
10 月 31 日,在 2023 云栖大会上,阿里云 CTO 周靖人表示,面向智能时代,阿里云将通过从底层算力到 AI 平台再到模型服务的全栈技术创新,升级云计算体系,打造一朵 AI 时代最开放的云。在现场,周靖人公布了云计算基础能力的最新进展,升级了人工智能平台,并发布千亿级参数规模的大模型通义千问 2.0,以及一站式模型应用开发平台阿里云百炼,阿里云已初步建成 AI 时代全栈的云计算体系。
独家 | GPT-4、Midjourney之外,谭平创业团队要造一个3D基础模型
前段时间,OpenAI 发布了文生图模型 DALL・E 3,生成效果非常惊艳。比如,你可以让它一次画出几十个物体,然后再要求它把这些物体全部放到一个冲浪者的背上: 可以看到,DALL・E 3 不仅画出了足量的物体,就连冲浪者面对重压时的神情都刻画了出来。但细心的网友也发现了一些问题:图中的铅笔等物体比例不太正常,模型似乎不太理解日常物品的大小比例关系。类似的问题其实不仅存在于 DALL・E 3 等二维图像生成模型。当生成维度提升到三维时,问题变得更加突出:生成的动物可能会有多张脸、多个头或脸部凹陷而非凸起。这些在
万万没想到,ChatGPT参数只有200亿?
这合理吗?谁都没有想到,ChatGPT 的核心秘密是由这种方式,被微软透露出来的。昨天晚上,很多讨论 AI 的微信群都被一篇 EMNLP 论文和其中的截图突然炸醒。微软一篇题为《CodeFusion: A Pre-trained Diffusion Model for Code Generation》的论文,在做对比的时候透露出了重要信息:ChatGPT 是个「只有」20B(200 亿)参数的模型,这件事引起了广泛关注。距 ChatGPT 发布已经快一年了,但 OpenAI 一直未透露 ChatGPT 的技术细节。
苹果M3系列登场,性能翻倍,M1、M2已成时代眼泪
M3 芯片来了。在苹果今天的 Scary Fast 发布会上,苹果正式发布了 M3、M3 Pro、M3 Max 芯片。苹果表示,这是首款采用 3 纳米工艺技术的 PC 芯片,允许将更多晶体管封装到更小的空间中,以提高速度和效率。除了芯片更新,苹果还带来了搭载 M3 系列芯片的 MacBook Pro 以及 24 英寸版 iMac。除了提供更快、更高效的 CPU,这三款芯片还配备了全新的 GPU,支持光线追踪、网格着色和动态缓存。M3 芯片提供高达 128GB 的统一内存,其中最强大的 M3 Max 芯片配备多达 9
2023云栖大会开幕,阿里巴巴蔡崇信:打造AI时代最开放的云
10 月 31 日上午,2023 云栖大会在杭州云栖小镇开幕。阿里巴巴集团董事会主席蔡崇信在开幕式上致辞,他提出,阿里巴巴 “要打造 AI 时代最开放的云”。
图模型也要大?清华朱文武团队有这样一些观点
在大模型时代,图机器学习面临什么样的机遇和挑战?是否存在,并该如何发展图的大模型?针对这一问题,清华大学朱文武教授团队首次提出图大模型(Large Graph Model)概念,系统总结并梳理了图大模型相关的概念、挑战和应用;进一步围绕动态性和可解释性,在动态图大模型和解耦图大模型方面取得了研究进展。论文地址:、相关概念(一)图大模型图大模型是指具有大量参数的图机器学习模型,具有比小模型更强大的学习能力,能更好地对图数据进行理解、分析和应用。为实现上述目标,图大模型应该具有以下四方面的核心能力:1. 图学习模型的规
用童话训练AI模型,微软找到了探索生成模型参数的新切入点
即便大语言模型的参数规模日渐增长,其模型中的参数到底是如何发挥作用的还是让人难以琢磨,直接对大模型进行分析又费钱费力。针对这种情况,微软的两位研究员想到了一个绝佳的切入点,用生成简练但是又涵盖各种常见逻辑和语法的童话故事来作为模型的生成任务,这样做能在减少模型的学习负担的同时,保留模型对逻辑和语法的学习能力,进而用小模型来分析参数发挥的作用。这种方法可能会开创一条新的研究道路。人们都知道,学英语不是一件容易的事。但假如「学生」是一台计算机,就可以这样高效地学英语:只需将互联网上堆积如山的文本,输入一个名为神经网络的