神经网络

ICLR 2023 Oral | 漂移感知动态神经网络加持,时间域泛化新框架远超领域泛化&适应方法

在领域泛化 (Domain Generalization, DG) 任务中,当领域的分布随环境连续变化时,如何准确地捕捉该变化以及其对模型的影响是非常重要但也极富挑战的问题。为此,来自 Emory 大学的赵亮教授团队,提出了一种基于贝叶斯理论的时间域泛化框架 DRAIN,利用递归网络学习时间维度领域分布的漂移,同时通过动态神经网络以及图生成技术的结合最大化模型的表达能力,实现对未来未知领域上的模型泛化及预测。本工作已入选 ICLR 2023 Oral (Top 5% among accepted papers)。

闲下来的Andrej Karpathy录了个课程:保证学会,你听不懂我吃鞋

为了重拾自己对 AI 开源和教育的热情,Andrej Karpathy 在家录了一个详解反向传播的课程。

《几何深度学习》作者授课,2022年GDL100课程上线

今年的 GDL100 包含常规课程、辅导课和专题研讨课,深入讲解了几何深度学习的基本概念和重要问题。

Creator 面对面 | 通往第三代人工智能的理论之路如何走?

人工智能已经是一门使能技术。未来人工智能取得突破性的领域方向,一定是从脑科学、材料学等领域得到了启发。同时,人工智能在未来将成为科学家的新生产工具,催生科研新范式。

Creator 面对面 | 几何深度学习的算法设计和数学理论

2016年,Yann LeCun 等人在 《Geometric deep learning: going beyond Euclidean data》一文中提出几何深度学习这一概念。现今几何机器学习和基于图的机器学习已经是当前最热门的研究课题之一。

370多页免费书籍,三位学者带你专攻深度学习中的数学知识

期待即将到来的章节。

吴凌飞、崔鹏、裴健、赵亮联合撰写,一本书读懂图神经网络的基础、前沿、应用(免费下载)

这本书称得上是目前为止图神经网络领域最为全面的卓越之作。

可对药物分子进行表征的几何深度学习

编辑 | 萝卜皮几何深度学习(GDL)基于包含和处理对称信息的神经网络架构。GDL 为依赖于具有不同对称性和抽象级别的分子表示的分子建模应用程序带来了希望。苏黎世联邦理工学院的研究人员对分子 GDL 进行了结构化和统一概述,重点介绍了其在药物发现、化学合成预测和量子化学中的应用。它包含对 GDL 原理的介绍,以及相关的分子表示,例如分子图、网格、曲面和字符串,以及它们各自的属性。讨论了分子科学中 GDL 当前面临的挑战,并尝试预测未来的机会。该综述以「Geometric deep learning on molec

在理解通用近似定理之前,你可能都不会理解神经网络

通用近似定理很好地解释了为什么神经网络能工作以及为什么它们经常不起作用。

深度学习模型知识产权保护怎么做?看看IJCAI 2021这场Workshop说了什么

在刚刚结束的 IJCAI 2021 大会上,「深度学习模型知识产权保护国际研讨会(DeepIPR-IJCAI’21)」正式举行,这场研讨会由微众银行、马来亚大学、香港科技大学、上海交通大学共同主办。

机器之心CVPR线下论文分享会干货集锦,同时邀你报名ACL 2021论文分享会

随着人工智能的火热,AAAI、NeurIPS、CVPR 等顶级学术会议的影响力也愈来越大,每年接收论文、参会人数的数量连创新高。但受疫情影响,近两年国外举办的学术会议都转为了线上,无法满足学者们现场交流的需求。以 CVPR 为例,2019 年,CVPR 注册参会人数高达 9227 人,其中来自国内的参会人数就达到 1044 位。因此,在 2020 年和 2021 年,国内 AI 从业者因疫情限制无法进行有效的学术交流。

神经网络debug太难了,这里有六个实用技巧

神经网络的 debug 过程着实不容易,这里是一些有所帮助的 tips。

150页在线书「几何深度学习」上线:利用对称性和不变性解决机器学习问题

CNN、GNN、LSTM、Transformer 等深度学习模型之间的共通之处是什么?在这本书里问题得到了解答。

李沐「动手学深度学习」第二部分CNN本周开课,也邀你挑战他10行代码的竞赛成绩

本周六,课程将进入第二部分:卷积神经网络,欢迎对这部分有疑问的同学上车学习。