资讯列表

浙大开发DeepSorption:晶态多孔材料吸附性能深度学习框架

编辑 | 紫萝空间转录组学 (ST) 技术可检测单个细胞中的 mRNA 表达,同时保留其二维 (2D) 空间坐标,使研究人员能够研究转录组在组织中的空间分布;然而,对多个 ST 切片进行联合分析并将它们对齐以构建组织的三维 (3D) 堆栈仍然是一个挑战。近日,来自中国科学技术大学、合肥综合性国家科学中心和北京生命科学研究所(NIBS)的研究团队,提出了用于 ST 数据分析的深度学习空间架构表征 (SPACEL)。SPACEL 包含三个模块——Spoint、Splane 和 Scube——涵盖了 ST 数据的三个分析

浙大开发DeepSorption:专家知识共学习的晶态多孔材料吸附性能深度学习框架

编辑 | ScienceAI近日,浙江大学杭州国际科创中心生物与分子智造研究院邢华斌教授团队和陈华钧教授团队瞄准多孔吸附剂材料的精准智造,开发出专家知识共学习的晶态多孔材料吸附性能端对端深度学习框架 DeepSorption,有效提升多孔材料吸附性能的预测精度与速度,并实现了原子尺度的可解释性。这一成果以《Direct prediction of gas adsorption via spatial atom interaction learning》为题,于 2023 年 11 月 3 日发表在《Nature C

谷歌发布Gemini,负责人:原生多模态大模型是AI「新品种」

机器之能报道编辑:吴昕又是一个不眠之夜,神仙扎堆献技。当地时间 12 月 6 日,谷歌 CEO Sundar Pichai 官宣 Gemini 1.0 版正式上线。在此之前,这款被谷歌寄予厚望对抗 OpenAI 的武器,发布时间一直被拖延。未曾料到,来得如此猝不及防。研发负责人、谷歌 DeepMind CEO Demis Hassabis 代表 Gemini 团队在发布会上正式推出大模型 Gemini,它拥有「视觉」和「听觉」,还有学习和推理能力。作为谷歌迄今为止最强大、最全面的模型,在大多数基准测试中, Gemi

谷歌大杀器终于来了,最大规模Gemini震撼发布:真超GPT4,三大版本,手机直接可用

时代变了?迄今为止规模最大,能力最强的谷歌大模型来了。当地时间 12 月 6 日,谷歌 CEO 桑达尔・皮查伊官宣 Gemini 1.0 版正式上线。这次发布的 Gemini 大模型是原生多模态大模型,是谷歌大模型新时代的第一步,它包括三种量级:能力最强的 Gemini Ultra,适用于多任务的 Gemini Pro 以及适用于特定任务和端侧的 Gemini Nano。现在,谷歌的类 ChatGPT 应用 Bard 已经升级到了 Gemini Pro 版本,实现了更为高级的推理、规划、理解等能力,同时继续保持免费

小模型也可以「分割一切」,Meta改进SAM,参数仅为原版5%

对于 2023 年的计算机视觉领域来说,「分割一切」(Segment Anything Model)是备受关注的一项研究进展。Meta四月份发布的「分割一切模型(SAM)」效果,它能很好地自动分割图像中的所有内容Segment Anything 的关键特征是基于提示的视觉 Transformer(ViT)模型,该模型是在一个包含来自 1100 万张图像的超过 10 亿个掩码的视觉数据集 SA-1B 上训练的,可以分割给定图像上的任何目标。这种能力使得 SAM 成为视觉领域的基础模型,并在超出视觉之外的领域也能产生应

思维链提出者Jason Wei:关于大模型的6个直觉

大模型究竟从下一个词预测任务中学到了什么呢?还记得 Jason Wei 吗?这位思维链的提出者还曾共同领导了指令调优的早期工作,并和 Yi Tay、Jeff Dean 等人合著了关于大模型涌现能力的论文。目前他正在 OpenAI 参与 ChatGPT 的开发工作。机器之心曾经报道过他为年轻 AI 研究者提供的一些建议。近日,他以客座讲师的身份为斯坦福的 CS 330 深度多任务学习与元学习课程讲了一堂课,分享了他对大型语言模型的一些直观认识。目前斯坦福尚未公布其演讲视频,但他本人已经在自己的博客上总结了其中的主要内

苹果为自家芯片打造开源框架MLX,实现Llama 7B并在M2 Ultra上运行

苹果的这个新框架 MLX 不仅拥有 PyTorch 风格的 API,还为开发者提供了很多经典示例(比如 Llama、LoRa、Stable Diffusion 和 Whisper)。2020 年 11 月,苹果推出 M1 芯片,其速度之快、功能之强大一时令人惊艳。2022 年苹果又推出了 M2,今年 10 月,M3 芯片正式登场。苹果在发布芯片的同时,也非常注重在其芯片上训练和部署 AI 模型的能力。苹果推出的 ML Compute 可用于在 Mac 上进行 TensorFlow 模型的训练。PyTorch 则支持

弥合2D和3D生成领域之间的次元壁,X-Dreamer实现高质量的文本到3D生成

本文介绍了一个名为 X-Dreamer 的框架,它主要由 CG-LoRA 和 AMA 损失两种关键创新组成,实现了弥合 text-to-2D 和 text-to-3D 间的领域差距,实现了高质量的 3D 生成。近年来,在预训练的扩散模型 [1, 2, 3] 的开发推动下,自动 text-to-3D 内容创建取得了重大进展。其中,DreamFusion [4] 引入了一种有效的方法,该方法利用预训练的 2D 扩散模型 [5] 从文本中自动生成 3D 资产,从而无需专门的 3D 资产数据集。DreamFusion 引入

LLaMA 开源背后:一场永远改变硅谷的AI军备内幕

机器之能报道编辑:SiaOpenAI 内部的戏剧性事件让世界第一次看到了那些将决定AI未来人的激烈争斗。事实上,在此之前,硅谷已经发生了一场鲜为人知但激烈的竞争,旨在争夺这项技术的控制权。《纽约时报》采访了80多位高管、科学家和企业家,《纽约客》采访了微软和OpenAI两家 CTO,分别从不同角度讲述了一个关于野心、恐惧和金钱的幕后故事。在 OpenAI 于 2022 年 11 月推出 ChatGPT 的六周后,Meta 首席 AI 科学家 Yann LeCun 从纽约飞往硅谷参加 Meta 的例行管理会议。在总部

为了保持 AI 未来的开放性,Meta 和 IBM 发起联盟

编辑 | 白菜叶Meta、IBM 以及数十家初创公司和研究人员成立了一个联盟,捍卫更加开放和协作的人工智能开发方法,并与 OpenAI 和谷歌就该技术的未来展开了辩论与对抗。哲学辩论已成为人工智能未来的中心战场,人们越来越担心微软支持的 OpenAI 和谷歌将独自支撑这项对我们日常生活变得越来越重要的技术。IBM 首席执行官 Arvind Krishna 在周二宣布成立人工智能联盟的声明中表示:「这是定义人工智能未来的关键时刻。」ChatGPT 的创建者 OpenAI 和 Google 捍卫了大型语言模型的闭源系统

线上开售!大模型时代的向量数据库 AI 技术论坛圆满收官

致力于助力大模型技术升级的“大模型时代的向量数据库”——机器之心 AI 技术论坛日前圆满收官。活动当日,北京海淀文津国际酒店论坛现场门庭若市,来自全国十余个城市的 200 多名参会者亲临现场,在 21 位向量数据库技术专家的带领下,系统拆解了向量数据库的关键技术,向量数据库、向量模型和知识库的应用场景和最佳实践,并用两个技术实操来巩固所学知识,一起高效完成了大模型技术升级。来看看现场的精彩瞬间吧!活动现场大家一同探讨了向量数据库和知识库的最佳落地场景、向量数据库的未来、RAG 和向量数据库的关系、个人如何在大模型时

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。我们知道,仅在无监督文本语料库上预训练的基础大语言模型(LLM)通常无法直接用作开源域的 AI 助手(如 ChatGPT)。因此,为了让这些基础的 LLM 成为有用且无害的 AI 助手,研究人员往往使用指令调优和偏好学习对它们进行微调。先来看下指令调优的定义,它是一种监督微调(SFT)过程,主要使用人工注

分割一切「3D高斯」版来了:几毫秒完成3D分割、千倍加速

有了上海交大和华为提出的 SAGA,辐射场中的交互式 3D 分割任务实现起来会更快、效果更好。今年 4 月,Meta 发布「分割一切(SAM)」AI 模型,这项成果不仅成为很多 CV 研究者心中的年度论文,更是在 ICCV 2023 上斩获最佳论文提名 。「分割一切」实现了 2D 分割的「既能」和「又能」,可以轻松地执行交互式分割和自动分割,且能泛化到任意新任务和新领域。现在,这种思路也延展到了 3D 分割领域。辐射场中的交互式 3D 分割一直是个备受关注的课题,在场景操作、自动标注和 VR 等多个领域均有潜在应用

五官乱飞,张嘴、瞪眼、挑眉,AI都能模仿到位,视频诈骗要防不住了

不能说完全相同,只能说表情一模一样。防不住,根本防不住,现在 AI 模仿能力已经发展到这种程度了?你前脚让自己的五官乱飞,后脚,一模一样的表情就被复现出来,瞪眼、挑眉、嘟嘴,不管多么夸张的表情,都模仿的非常到位。加大难度,让眉毛挑的再高些,眼睛睁的再大些,甚至连嘴型都是歪的,虚拟人物头像也能完美复现表情。你在左边调节参数,右面的虚拟头像也会跟着变换动作:给嘴巴、眼睛一个特写,模仿的不能说完全相同,只能说表情一模一样(最右边)。这项研究来自慕尼黑工业大学等机构,他们提出了 GaussianAvatars,这种方法可用

NeurIPS 2023 | 模仿人类举一反三,数据集扩增新范式GIF框架来了

在这篇 NeurIPS 2023 论文中,来自新加坡国立大学和字节跳动的学者们受人类联想学习的启发,提出了数据集扩增的新范式,有效地提升了深度模型在小数据场景下的性能和泛化能力,极大地降低了人工收集和标注数据的时间和成本。代码已开源。论文链接::,深度神经网络的性能很大程度上依赖于训练数据的数量和质量,这使得深度学习难以广泛地应用在小数据任务上。例如,在医疗等领域的小数据应用场景中,人力收集和标注大规模的数据集往往费时费力。为了解决这一数据稀缺问题并最小化数据收集成本,该论文探索了一个数据集扩增新范式,旨在自动生成

可直接比较潜在新药的性能,杜克大学团队开发新的药物AI模型

编辑 | 白菜叶目前的分子机器学习模型往往将单个分子作为输入,来预测其生物、化学或物理特性。然而,此类算法需要大型数据集,并且尚未针对预测分子之间的性质差异进行优化,限制了它们从较小数据集学习的能力,也限制了直接比较两个分子预期性质的能力。杜克大学(Duke University)的研究人员开发了 DeepDelta,这是一种成对深度学习方法,可以同时处理两个分子,并学习从小数据集中预测两个分子之间的属性差异。在 10 个 ADMET 基准任务中,DeepDelta 方法显著优于两种已建立的分子机器学习算法:定向消

从“源头”保护数据安全:腾讯安全推出大模型隐私保护脱敏技术

大模型已经被广泛应用在各类场景,帮助人们进行报告摘要、文本翻译、数据分析、业务风控等各项工作,极大地提升了工作效率,但同时公众对于大模型带来的数据泄露的隐忧也从未停止。近日,腾讯安全玄武实验室披露了一项关于大模型隐私保护的安全脱敏与还原(Hide and Seek, HaS)技术,有望帮助大模型产品使用者从本地终端侧防范隐私数据泄露。HaS为业内首个支持信息还原的自由文本脱敏技术,通过对用户上传给大模型的prompt(提示词)进行隐私信息脱敏,并在大模型返回计算结果后进行恢复,该方案兼顾了隐私安全和计算资源消耗:脱

美图公司发布视觉大模型4.0,提供专业设计与视频生成能力

12月5-6日,主题为“未来AI设计”的美图创造力大会(Meitu Creativity Conference,简称MCC)在厦门举行。本届大会由美图公司与站酷联合举办,聚焦于设计师生态和AI设计趋势。大会现场发布《2023年度AI设计实践报告》,同时,美图公司发布自研AI视觉大模型MiracleVision(奇想智能)4.0版本,主打AI设计与AI视频。美图与站酷达成深度战略合作,共同发起“新锐AI设计师”计划在美图公司创始人、董事长兼首席执行官吴欣鸿看来,AI正引领设计行业进入新的境界。“未来的AI设计就是设计