今年共评选出 5 篇良好论文奖以及 11 篇声誉提名。
ICLR 全称为国际进修表征会议(International Conference on Learning Representations),今年举行的是第十二届,于 5 月 7 日至 11 日在奥地利维也纳展览会议中心举行。
在机器进修社区中,ICLR 是较为「年轻」的顶级学术会议,它由深度进修巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举行,2013 年才刚刚举行第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度进修的顶级会议。
本届会议共收到了 7262 篇提交论文,接收 2260 篇,整体接收率约为 31%,与去年持平(31.8%)。此外 Spotlights 论文比例为 5%,Oral 论文比例为 1.2%。
相比于往年,无论是参会人数还是论文提交量,ICLR 的热度可以说是有极大的提升。
历届 ICLR 论文数据图
在近日公布的获奖论文中,大会评选出了 5 篇良好论文奖和 11 篇声誉提名奖。
5 篇良好论文奖
Outstanding Paper winners
论文:Generalization in diffusion models arises from geometry-adaptive harmonic representations
论文地点:https://openreview.net/pdf?id=ANvmVS2Yr0
机构:纽约大学、法兰西公学院
作家:Zahra Kadkhodaie 、Florentin Guth 、Eero P. Simoncelli 、Stéphane Mallat
本文对图像扩散模型的泛化和记忆方面进行了重要的深入分析。作家通过实证研究了图像生成模型何时从记忆输入切换到泛化模式,并通过几何自适应谐波表示与谐波分析的思想建立联系,从架构归纳偏差的角度进一步解释了这一现象。本文涵盖了我们对视觉生成模型理解中缺失的关键部分,对未来研究启发巨大。
论文:Learning Interactive Real-World Simulators
论文地点:https://openreview.net/forum?id=sFyTZEqmUY
机构:UC 伯克利、 Google DeepMind 、 MIT 、阿尔伯塔大学
作家:Sherry Yang、 Yilun Du 、 Kamyar Ghasemipour、Jonathan Tompson、Leslie Kaelbling、Dale Schuurmans、Pieter Abbeel
跨多个来源聚合数据以训练机器人基础模型是一个长期目标。由于不同的机器人具有不同的感知运动接口,这给跨大规模数据集的训练带来了重大挑战。
UniSim,是朝着这个方向迈出的重要一步,也是一项工程壮举,它利用了鉴于视觉感知和控制的文本描述的统一接口来聚合数据,并通过利用视觉和语言领域的最新发展来训练机器人放荡器。
总结而言,本文探索了通过生成模型进修真实世界交互的通用放荡器 UniSim,迈出了构建通用放荡器的第一步。例如 UniSim 可以通过放荡「打开抽屉」等高级指令和低级指令的视觉结果来放荡人类和智能体如何与世界交互。
本文将大量数据(包括互联网文本 – 图像对,来自导航、人类活动、机器人动作等的丰富数据,以及来自放荡和渲染的数据)结合到一个条件视频生成框架中。然后通过仔细编排沿不同轴的丰富数据,本文表明 UniSim 可以成功地合并不同轴数据的经验并泛化到数据之外,通过对静态场景和对象的细粒度运动控制来实现丰富的交互。
如下图 3 所示,UniSim 能够放荡一系列丰富动作,例如厨房场景中洗手、拿碗、切胡萝卜、擦干手这一系列动作;图 3 右上是按下不同的开关;图 3 下是两个导航场景。
对应上图 3 右下的导航场景
上图 3 右下的导航场景
论文:Never Train from Scratch: Fair Comparison of Long-Sequence Models Requires Data-Driven Priors
论文地点:https://openreview.net/forum?id=PdaPky8MUn
机构:特拉维夫大学、IBM
作家:Ido Amos、Jonathan Berant、Ankit Gupta
这篇论文深入探讨了最近提出的状态空间模型和 transformer 架构对建模长期序列依赖性的能力。
令人惊讶的是,作家发现从头开始训练 transformer 模型会导致其性能被低估,并且通过预训练和微调设置可以实现显著的性能提升。该论文在关注简洁性和系统性见解方面表现极佳。
论文:Protein Discovery with Discrete Walk-Jump Sampling
论文地点:https://openreview.net/forum?id=zMPHKOmQNb
机构:基因泰克、纽约大学
作家:Nathan C. Frey、Dan Berenberg、Karina Zadorozhny、Joseph Kleinhenz、Julien Lafrance-Vanasse、Isidro Hotzel、Yan Wu、Stephen Ra、Richard Bonneau、Kyunghyun Cho、Andreas Loukas、Vladimir Gligorijevic、Saeed Saremi
这篇论文解决了鉴于序列的抗体设计问题,这是蛋白质序列生成模型的一个及时而重要的应用。
为此,作家引入了一种创新而有效的新建模步骤,用来专门针对处理离散蛋白质序列数据的问题。除了在硅中验证该步骤外,作家还进行了大量的湿法实验室实验,以测量体外抗体结合亲和力,展示了他们生成步骤的有效性。
论文:Vision Transformers Need Registers
论文地点:https://openreview.net/forum?id=2dnO3LLiJ1
机构:Meta 等
作家:Timothée Darcet、Maxime Oquab、Julien Mairal、Piotr Bojanowski
该篇论文识别了 vision transformer 网络的特征图中的人工痕迹,这些痕迹以低信息背景区域中的高范数 tokens 为特征。
作家提出了这种现象发生的关键假设,并提供了一个简单而优雅的解决方案,使用额外的 register tokens 来解决这些痕迹,从而增强了模型在各种任务上的性能。从这项工作中获得的见解还可以影响其他应用领域。
这篇论文行文极佳,为进行研究提供了一个很好的示范:「识别问题,理解其发生的原因,然后提出解决方案。」
11 篇声誉提名
除了 5 篇良好论文,ICLR 2024 还评选出了 11 篇声誉提名奖。
论文:Amortizing intractable inference in large language models
机构:蒙特利尔大学、牛津大学
作家:Edward J Hu、Moksh Jain、Eric Elmoznino、Younesse Kaddar、Guillaume Lajoie、Yoshua Bengio、Nikolay Malkin
论文地点:https://openreview.net/forum?id=Ouj6p4ca60
这篇论文从贝叶斯推理的角度提出了一种在大型语言模型中替代自回归解码的有前景的步骤,这可能会激发后续研究。
论文:Approximating Nash Equilibria in Normal-Form Games via Stochastic Optimization
机构:DeepMind
作家:Ian Gemp、Luke Marris、Georgios Piliouras
论文地点:https://openreview.net/forum?id=cc8h3I3V4E
这是一篇写得非常清晰的论文,对解决开发高效且可扩展的纳什求解器这一重要问题意义重大。
论文:Beyond Weisfeiler-Lehman: A Quantitative Framework for GNN Expressiveness
机构:北京大学、北京智源人工智能研究院
作家:张博航 盖景初 杜逸恒 叶启威 贺笛 王立威
论文地点:https://openreview.net/forum?id=HSKaGOi7Ar
GNN 的表达能力是一个重要课题,而当前的解决方案仍然存在很大的局限性。作家提出了一种鉴于同态计数的新表达理论(expressivity theory)。
论文:Flow Matching on General Geometries
机构:Meta
作家:Ricky T. Q. Chen、Yaron Lipman
论文地点:https://openreview.net/forum?id=g7ohDlTITL
本文探讨了在一般几何流形上进行生成建模这一具有挑战性但又十分重要的问题,并提出了一种实用且高效的算法。本文的呈现非常出色,并在广泛的任务上进行了全面的实验验证。
论文:Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video
机构:中佛罗里达大学、 Google DeepMind、阿姆斯特丹大学等
作家:Shashanka Venkataramanan、Mamshad Nayeem Rizve、Joao Carreira、Yuki M Asano、Yannis Avrithis
论文地点:https://openreview.net/forum?id=Yen1lGns2o
本文提出了一种新颖的自监督图像预训练步骤,即通过从连续视频中进修。本文既贡献了新类型的数据,也贡献了一种从新数据中进修的步骤。
论文:Meta Continual Learning Revisited: Implicitly Enhancing Online Hessian Approximation via Variance Reduction
机构:香港城市大学、腾讯 AI 实验室、西安交通大学等
作家:Yichen Wu、Long-Kai Huang、Renzhen Wang、Deyu Meng、魏颖(Ying Wei)
论文地点:https://openreview.net/forum?id=TpD2aG1h0D
作家提出了一种新的元连续进修方差减少步骤。该步骤表现良好,不仅具有实际影响,而且还得到了 regret 分析的支持。
论文:Model Tells You What to Discard: Adaptive KV Cache Compression for LLMs
机构:伊利诺伊大学厄巴纳 – 香槟分校、微软
作家:Suyu Ge、Yunan Zhang、Liyuan Liu、Minjia Zhang、Jiawei Han、Jianfeng Gao
论文地点:https://openreview.net/forum?id=uNrFpDPMyo
本文针对 KV 缓存压缩问题(该问题对鉴于 Transformer 的 LLM 影响很大),通过一个简单的想法来减少内存,并且无需耗费大量资源进行微调或重新训练即可部署。这种步骤非常简单,事实证明它非常有效。
论文:Proving Test Set Contamination in Black-Box Language Models
机构:斯坦福大学、哥伦比亚大学
作家:Yonatan Oren、Nicole Meister、Niladri S. Chatterji、Faisal Ladhak、Tatsunori Hashimoto
论文地点:https://openreview.net/forum?id=KS8mIvetg2
本文使用了一个简单而优雅的步骤,用于测试受监督的进修数据集是否已被包含在大型语言模型的训练中。
论文:Robust agents learn causal world models
机构:Google DeepMind
作家:Jonathan Richens、Tom Everitt
论文地点:https://openreview.net/forum?id=pOoKI3ouv1
这篇论文在奠定理论基础方面取得了长足进展,以便理解因果推理在智能体推广到新领域的能力中所起到的作用,对一系列相关领域也产生了影响。
论文:The mechanistic basis of data dependence and abrupt learning in an in-context classification task
机构:普林斯顿大学、哈佛大学等
作家:Gautam Reddy
论文地点:https://openreview.net/forum?id=aN4Jf6Cx69
这是一项及时而极其系统性的研究,探讨了我们在开始理解这些现象的时候,in-context 进修与 in-weight 进修之间的机制。
论文:Towards a statistical theory of data selection under weak supervision
机构:Granica Computing
作家:Germain Kolossov、Andrea Montanari、Pulkit Tandon
论文地点:https://openreview.net/forum?id=HhfcNgQn6p
这篇论文为数据子集选择建立了统计基础,并确定了流行的数据选择步骤的缺点。
参考链接:https://blog.iclr.cc/2024/05/06/iclr-2024-outstanding-paper-awards/