资讯列表

清华&第四范式&腾讯研究团队:图神经网络与生物医学网络实现新兴药物相互作用预测

编辑 | 萝卜皮新兴药物的药物相互作用 (DDI) 为治疗和缓解疾病提供了可能性,利用计算方法准确预测这些相互作用可以改善患者护理并有助于高效的药物开发。然而,许多现有的计算方法需要大量已知的 DDI 信息,这对于新兴药物来说是稀缺的。清华大学、第四范式(4Paradigm)以及腾讯 Jarvis Lab 的研究人员提出了 EmerGNN,这是一种图神经网络,可以利用生物医学网络中的丰富信息来有效预测新兴药物的相互作用。EmerGNN 通过提取药物对之间的路径、将信息从一种药物传播到另一种药物以及在路径上结合相关的

LLM与药物发现结合,NVIDIA、Mila、Caltech团队发布多模态分子结构-文本模型

作者 | 刘圣超编辑 | 凯霞从2021年开始,大语言和多模态的结合席卷了机器学习科研界。最近随着大模型、多模态的应用,一个很自然的想法就是我们是否也可以将这些技术用到药物发现上?并且这些自然语言的文本描述,是否对于药物发现这个有挑战性的问题带来新的视角?答案是肯定并且乐观的。近日,加拿大蒙特利尔学习算法研究院(Mila)、NVIDIA Research、伊利诺伊大学厄巴纳-香槟分校(UIUC)、普林斯顿大学和加州理工学院的研究团队,通过对比学习策略共同学习分子的化学结构和文本描述,提出了一种多模态分子结构-文本模

迈向程序化蛋白质生成

编译 | 波菜叶机器学习算法在计算蛋白质设计中的应用最近取得了许多成就,例如从氨基酸序列预测3D结构以及可以折叠成所需3D结构的蛋白质序列的逆向设计。然而,从头蛋白质结构生成——即生成具有所需特性的蛋白质结构——仍然是一项艰巨的任务。巨大的蛋白质分子空间,以及功能性蛋白质仅由所有可能的蛋白质分子的一小部分组成的事实,使得有效识别序列、结构和功能(或性质)之间的关系变得困难。虽然深度生成模型促进了蛋白质结构的生成,但仍然存在一些挑战,例如完整蛋白质复杂性的生成、具有不同设计约束的条件采样而不需要重新训练模型,以及随着

超10亿个核苷酸水平的测量,首个RNA基础模型解锁RNA药物发现

编辑 | KX近日,生物技术公司 Atomic AI 宣布,创建了第一个利用化学制图数据的大型语言模型(LLM)。Atomic AI 将尖端机器学习与最先进的结构生物学相结合,以解锁 RNA 药物发现。Atomic AI 的研究人员创建了一个新的平台组件,利用内部使用定制湿实验室分析收集的大规模化学作图数据。科学家们收集了数百万条 RNA 序列的数据,并进行了超过 10 亿个核苷酸水平的测量。通过这些数据的训练,ATOM-1 对 RNA 有了丰富的了解,然后可以用来优化不同 RNA 模式的特性。Atomic AI

革新搜索从健康场景开始,夸克App全面升级健康搜索体验

大模型时代,夸克率先迈出了革新搜索的第一步。12月25日,夸克App宣布全面升级健康搜索,推出健康大模型应用“夸克健康助手”,并在部分搜索结果和功能板块中上线全新的内容交互方式。升级后,用户在夸克中搜索健康信息的正确率超过行业平均水平,多样化的信息呈现方式和优质搜索内容将更加便捷和实用。革新搜索迈出第一步,夸克打造健康搜索新体验 自互联网出现以来,通过搜索平台查询健康信息成为用户的高频需求之一。但是从实际体验来看,传统搜索框存在问题表述不清、信息理解困难等顽疾。随着AI时代来临,大模型应用即将改变这一现状。为了给用

免费实用!16款 Stable Diffusion 插件全面测评

随着 Stable Diffusion 的不断进化,越来越多的开发者加入到插件开发的行列中。大家都知道网上虽然教程多,但非常碎片,一个个学习和查阅真的非常耗时,感觉每天都在烧脑。如果你是 SD 小白或者是小懒猫,又想快速上手使用 Stable Diffusion 插件,那么这篇文章就非常适合你了!因为这是以设计师日常应用的角度出发,从推荐指数、易上手程度、使用频率三个维度来测评。 希望这篇文章能够帮助大家更好地了解 Stable Diffusion 插件。 更多SD插件:一、前方高能 1. prompt-all-i

昆仑万维「天工SkyAgents」Beta版全网测试

12月25日,昆仑万维AI Agents开发平台「天工SkyAgents」Beta版正式开放测试,用户可在。昆仑万维「天工SkyAgents」AI Agents开发平台,基于昆仑万维「天工大模型」打造,具备从感知到决策,从决策到执行的自主学习和独立思考能力。用户可以通过自然语言构建自己的单个或多个“私人助理”,并能将不同任务模块化,通过操作系统模块的方式,实现执行包括问题预设、指定回复、知识库创建与检索、意图识别、文本提取、http请求等任务。在大模型技术高速发展、AI Agents应用不断进步的当下,昆仑万维「天

挑战Transformer的Mamba是什么来头?作者博士论文理清SSM进化路径

对 SSM 感兴趣的研究者不妨读一下这篇博士论文。在大模型领域,Transformer 凭一己之力撑起了整个江山。但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显,比如其自注意力机制的计算量会随着上下文长度的增加呈平方级增长。为了克服这些缺陷,研究者们开发出了很多注意力机制的高效变体,但收效甚微。最近,一项名为「Mamba」的研究似乎打破了这一局面,它在语言建模方面可以媲美甚至击败 Transformer。这都要归功于作者提出的一种新架构 —— 选择性状态空间模型( sele

Softmax注意力与线性注意力的优雅融合,Agent Attention推动注意力新升级

来自清华大学的研究者提出了一种新的注意力范式——代理注意力 (Agent Attention)。近年来,视觉 Transformer 模型得到了极大的发展,相关工作在分类、分割、检测等视觉任务上都取得了很好的效果。然而,将 Transformer 模型应用于视觉领域并不是一件简单的事情。与自然语言不同,视觉图片中的特征数量更多。由于 Softmax 注意力是平方复杂度,直接进行全局自注意力的计算往往会带来过高的计算量。针对这一问题,先前的工作通常通过减少参与自注意力计算的特征数量的方法来降低计算量。例如,设计稀疏注

一篇综述,看穿基础模型+机器人的发展路径

基础模型 (Foundation Models) 已经在过去几年里重塑了自然语言处理 (NLP) 和计算机视觉 (CV) 研究的格局,那么基础模型能为机器人带来怎样的可能性?这篇综述或许有你想要的答案。机器人是一种拥有无尽可能性的技术,尤其是当搭配了智能技术时。近段时间创造了许多变革性应用的大模型有望成为机器人的智慧大脑,帮助机器人感知和理解这个世界并制定决策和进行规划。近日,CMU 的 Yonatan Bisk 和 Google DeepMind 的夏斐(Fei Xia)领导的一个联合团队发布了一篇综述报告,介绍

无问芯穹夏立雪:目标将大模型算力成本压缩四个数量级,为算力市场带来增量

算力不足仍然是制约通用人工智能发展的重要因素。GPU Utils 今年 8 月的一份数据显示,全球目前 H100 等效算力的供给缺口达到 43 万张。在解决算力不足的问题上,除了抢购和囤积英伟达,更多的方案正在浮出水面。清华系创业公司无问芯穹,是这个赛道上的一个答题者。不久前,机器之心介绍了来自无问芯穹(Infinigence AI)、清华大学和上海交通大学的联合团队所提出的一种新方法 FlashDecoding 。这项工作不仅能将 GPU 推理提速 2-4 倍,还能同时支持 NVIDIA 和 AMD 的 GPU

自己发基准自己第一,Anyscale行为惹社区吐槽

前一天发布 LLMPerf 排行榜,宣称要推动大型语言模型推理领域的发展,鼓励创新与超越。第二天就收获 AI 社区的大量吐槽,原因是排行榜的「基准甚至没有得到很好的校准」。这是 Anyscale 这家初创公司正在经历的事情。Anyscale 是一家专注分布式计算领域的美国初创公司,虽然创立仅三年时间,但却收获了不少的关注。首先就是 Anyscale 旗下开源项目 Ray 带来的光环。Ray 是一个开源的分布式计算框架,可以将 AI/ML 和 Python 的 workload 从单机拓展至多台计算机上,从而提高 w

无限新衣服零元购,阿里Outfit Anyone实现真人百变换装

不实际试穿,就能尝试各种服饰,虚拟试衣技术让「QQ秀」升级成了真人版,为时尚行业打开了新世界的大门。然而,现有的虚拟试衣方法在逼真性和细节上的一致性方面还存在挑战。虽然扩散模型在创造高品质和真实感图像方面表现出众,但在虚拟试衣等特定场景中,它们在维持控制力和一致性方面还有待提高。Outfit Anyone 利用了一种创新的双流条件扩散模型,有效地解决了这些问题,能够精确地处理服装的变形效果,实现更加逼真的试穿体验。Outfit Anyone 最大的特点是其极强的适应性和广泛的应用范围,不仅能调整以适应不同的姿势和体

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

在这篇 NeurIPS23 论文中,来自鲁汶大学、新加坡国立大学和中科院自动化所的研究者提出了一种视觉 「读脑术」,能够从人类的大脑活动中以高分辨率解析出人眼观看到的图像。人类的感知不仅由客观刺激塑造,而且深受过往经验的影响,这些共同促成了大脑中的复杂活动。在认知神经科学领域,解码大脑活动中的视觉信息成为了一项关键任务。功能性磁共振成像(fMRI)作为一种高效的非侵入性技术,在恢复和分析视觉信息,如图像类别方面发挥着重要作用。然而,由于 fMRI 信号的噪声特性和大脑视觉表征的复杂性,这一任务面临着不小的挑战。针对

智能澎湃,大有可为——机器之心2023年度榜单揭晓

人工智能发展史上有几个重要的年份:比如 1956、2012…… 如今又多了个 2023 。这一年,ChatGPT 引爆的「百模大战」在国内外科技领域打响,没有一家公司敢在这样一个充满变革机遇的时间窗口松懈。与此同时,基于大模型打造应用的创业者也迎来了新的机遇,ChatGPT、Midjourney、Pika Lab等现象级应用已经足以让他们感受到大模型尚未完全爆发的潜力,也让他们感觉自己身处各种新的现象级应用爆发的前夕。在无数科研人员、从业者的努力下,2023 年中国人工智能领域已经诞生了一些新的成果,这些人的努力值

OpenAI计划新一轮融资,估值超1000亿美元

OpenAI 将成为仅次于字节、SpaceX 的全球第三大初创公司。大语言模型技术领先的 OpenAI,马不停蹄又要融资了。本周五据彭博社报道,OpenAI 正在开始讨论讨论筹集新一轮融资,估值将达到超过 1000 亿美元。这笔交易将为 OpenAI 这个 ChatGPT 提出者的融资历程再添上重要一笔。有匿名知情人士表示,可能参与本轮融资的投资者们已在参与初步讨论。其表示,本轮融资的条款、估值和时间安排等细节尚未最终确定,且仍可能继续发生变化。根据 CBInsights 的数据,如果该轮融资按照计划进行,将使 O

量子计算凛冬将至,LeCun:现实冷酷,炒作太多

距离技术成熟永远「还差五年」?「量子计算,寒冬将至了?」本周五,AI 先驱 Yann LeCun 的一番言论引发了人们的讨论。这位 AI 领域的著名学者表示,量子计算正在进入一个艰难时刻。与此同时,很多科技领域专家认为,目前的量子计算技术进步很多趋向于炒作,距离实际应用仍然很遥远。对此,很多人同样持有悲观态度。让我们看看 IEEE 的这篇文章是怎么说的:量子计算机革命可能比许多人想象的更遥远、更有限。一直以来,量子计算机都被期许为一种能够解决广泛问题的强大工具,可应用的方向包括金融建模、优化物流和加速机器学习。量子

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

苹果这项新工作将为未来 iPhone 加入大模型的能力带来无限想象力。近年来,GPT-3、OPT 和 PaLM 等大型语言模型(LLM)在广泛的 NLP 任务中表现出了强大的性能。不过,这些能力伴随着大量计算和内存推理需求,毕竟大型语言模型可能包含数千亿甚至万亿参数,使得高效加载和运行变得有挑战性,尤其是在资源有限的设备上。当前标准的应对方案是将整个模型加载到 DRAM 中进行推理,然而这种做法严重限制了可以运行的最大模型尺寸。举个例子,70 亿参数的模型需要 14GB 以上的内存才能加载半精度浮点格式的参数,这超