神经网络
使用深度神经网络整合药物与疾病关联数据进行药物再利用
编辑 | 萝卜皮药物再利用是指识别 FDA 批准的用于治疗特定疾病的新药物靶点。由于新药发现失败的高风险,药物再利用被视为药物研发重要途径。伊朗大不里士大学(University of Tabriz)的研究人员提出了一个模型,使用深度神经网络整合药物与疾病关联数据进行药物再利用。该模型被称为 IDDI-DNN,主要构建药物相关属性(三个矩阵)、疾病相关属性(两个矩阵)和药物与疾病关联(一个矩阵)的相似性矩阵。然后,受益于相似性网络融合方法,通过两步过程将这些矩阵整合成一个唯一的矩阵。该模型使用构建的矩阵通过卷积神经
网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展
编辑 | 紫罗随着大模型等人工智能技术的突破与发展,算法复杂度剧增,对传统计算芯片带来了算力和功耗的双重挑战。近年来,以光计算为基础、通过光电融合的方式构建光电神经网络的计算处理方法已经成为国际热点研究问题,有望实现计算性能的颠覆性提升。然而,光电神经网络的前向数学模型由对光场的精准物理建模得到,计算复杂度高、参数冗余度大;其学习机制沿用人工神经网络常用的梯度下降算法,面向大规模光电神经网络时优化速度慢、资源消耗高、收敛效果差。因此,现有学习架构仅能支撑小规模光电神经网络的训练,其网络容量和特征捕获能力不足以有效处
通过深度学习预测离散时间分岔
编辑 | 白菜叶许多自然和人造系统都容易发生关键转变——动态方面的突然且可能具有破坏性的变化。深度学习分类器可以通过从大型模拟训练数据集中学习分叉的通用特征,为关键转变提供预警信号。到目前为止,分类器仅被训练来预测连续时间分岔,忽略了离散时间分岔所特有的丰富动态。在这里,麦吉尔大学(McGill University)Thomas M. Bury 的研究团队训练一个深度学习分类器,为余维一的五个局部离散时间分岔提供预警信号。他们使用生理学、经济学和生态学中使用的离散时间模型的模拟数据以及经历倍周期分岔的自发跳动的鸡
1毫瓦芯片就能玩《毁灭战士》,超低功耗芯片来了
最近,美国人工智能芯片初创公司 Syntiant 公布了一款超低功耗芯片,可以在 1mW 的功耗下玩《毁灭战士》。
ICLR 2023 Oral | 漂移感知动态神经网络加持,时间域泛化新框架远超领域泛化&适应方法
在领域泛化 (Domain Generalization, DG) 任务中,当领域的分布随环境连续变化时,如何准确地捕捉该变化以及其对模型的影响是非常重要但也极富挑战的问题。为此,来自 Emory 大学的赵亮教授团队,提出了一种基于贝叶斯理论的时间域泛化框架 DRAIN,利用递归网络学习时间维度领域分布的漂移,同时通过动态神经网络以及图生成技术的结合最大化模型的表达能力,实现对未来未知领域上的模型泛化及预测。本工作已入选 ICLR 2023 Oral (Top 5% among accepted papers)。
闲下来的Andrej Karpathy录了个课程:保证学会,你听不懂我吃鞋
为了重拾自己对 AI 开源和教育的热情,Andrej Karpathy 在家录了一个详解反向传播的课程。
《几何深度学习》作者授课,2022年GDL100课程上线
今年的 GDL100 包含常规课程、辅导课和专题研讨课,深入讲解了几何深度学习的基本概念和重要问题。
Creator 面对面 | 通往第三代人工智能的理论之路如何走?
人工智能已经是一门使能技术。未来人工智能取得突破性的领域方向,一定是从脑科学、材料学等领域得到了启发。同时,人工智能在未来将成为科学家的新生产工具,催生科研新范式。
Creator 面对面 | 几何深度学习的算法设计和数学理论
2016年,Yann LeCun 等人在 《Geometric deep learning: going beyond Euclidean data》一文中提出几何深度学习这一概念。现今几何机器学习和基于图的机器学习已经是当前最热门的研究课题之一。
370多页免费书籍,三位学者带你专攻深度学习中的数学知识
期待即将到来的章节。
吴凌飞、崔鹏、裴健、赵亮联合撰写,一本书读懂图神经网络的基础、前沿、应用(免费下载)
这本书称得上是目前为止图神经网络领域最为全面的卓越之作。
可对药物分子进行表征的几何深度学习
编辑 | 萝卜皮几何深度学习(GDL)基于包含和处理对称信息的神经网络架构。GDL 为依赖于具有不同对称性和抽象级别的分子表示的分子建模应用程序带来了希望。苏黎世联邦理工学院的研究人员对分子 GDL 进行了结构化和统一概述,重点介绍了其在药物发现、化学合成预测和量子化学中的应用。它包含对 GDL 原理的介绍,以及相关的分子表示,例如分子图、网格、曲面和字符串,以及它们各自的属性。讨论了分子科学中 GDL 当前面临的挑战,并尝试预测未来的机会。该综述以「Geometric deep learning on molec
在理解通用近似定理之前,你可能都不会理解神经网络
通用近似定理很好地解释了为什么神经网络能工作以及为什么它们经常不起作用。
深度学习模型知识产权保护怎么做?看看IJCAI 2021这场Workshop说了什么
在刚刚结束的 IJCAI 2021 大会上,「深度学习模型知识产权保护国际研讨会(DeepIPR-IJCAI’21)」正式举行,这场研讨会由微众银行、马来亚大学、香港科技大学、上海交通大学共同主办。
机器之心CVPR线下论文分享会干货集锦,同时邀你报名ACL 2021论文分享会
随着人工智能的火热,AAAI、NeurIPS、CVPR 等顶级学术会议的影响力也愈来越大,每年接收论文、参会人数的数量连创新高。但受疫情影响,近两年国外举办的学术会议都转为了线上,无法满足学者们现场交流的需求。以 CVPR 为例,2019 年,CVPR 注册参会人数高达 9227 人,其中来自国内的参会人数就达到 1044 位。因此,在 2020 年和 2021 年,国内 AI 从业者因疫情限制无法进行有效的学术交流。
神经网络debug太难了,这里有六个实用技巧
神经网络的 debug 过程着实不容易,这里是一些有所帮助的 tips。
150页在线书「几何深度学习」上线:利用对称性和不变性解决机器学习问题
CNN、GNN、LSTM、Transformer 等深度学习模型之间的共通之处是什么?在这本书里问题得到了解答。
李沐「动手学深度学习」第二部分CNN本周开课,也邀你挑战他10行代码的竞赛成绩
本周六,课程将进入第二部分:卷积神经网络,欢迎对这部分有疑问的同学上车学习。