7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

今年共评选出 5 篇良好论文奖以及 11 篇声誉提名。ICLR 全称为国际进修表征会议(International Conference on Learning Representations),今年举行的是第十二届,于 5 月 7 日至 11 日在奥地利维也纳展览会议中心举行。在机器进修社区中,ICLR 是较为「年轻」的顶级学术会议,它由深度进修巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举行,2013 年才刚刚举行第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认

今年共评选出 5 篇良好论文奖以及 11 篇声誉提名。

ICLR 全称为国际进修表征会议(International Conference on Learning Representations),今年举行的是第十二届,于 5 月 7 日至 11 日在奥地利维也纳展览会议中心举行。

在机器进修社区中,ICLR 是较为「年轻」的顶级学术会议,它由深度进修巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举行,2013 年才刚刚举行第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度进修的顶级会议。

本届会议共收到了 7262 篇提交论文,接收 2260 篇,整体接收率约为 31%,与去年持平(31.8%)。此外 Spotlights 论文比例为 5%,Oral 论文比例为 1.2%。

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

相比于往年,无论是参会人数还是论文提交量,ICLR 的热度可以说是有极大的提升。

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

                                历届 ICLR 论文数据图

在近日公布的获奖论文中,大会评选出了 5 篇良好论文奖和 11 篇声誉提名奖。

5 篇良好论文奖

Outstanding Paper winners

论文:Generalization in diffusion models arises from geometry-adaptive harmonic representations

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

论文地点:https://openreview.net/pdf?id=ANvmVS2Yr0

机构:纽约大学、法兰西公学院

作家:Zahra Kadkhodaie 、Florentin Guth 、Eero P. Simoncelli 、Stéphane Mallat

本文对图像扩散模型的泛化和记忆方面进行了重要的深入分析。作家通过实证研究了图像生成模型何时从记忆输入切换到泛化模式,并通过几何自适应谐波表示与谐波分析的思想建立联系,从架构归纳偏差的角度进一步解释了这一现象。本文涵盖了我们对视觉生成模型理解中缺失的关键部分,对未来研究启发巨大。

论文:Learning Interactive Real-World Simulators

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

论文地点:https://openreview.net/forum?id=sFyTZEqmUY

机构:UC 伯克利、 Google DeepMind 、 MIT 、阿尔伯塔大学

作家:Sherry Yang、 Yilun Du 、 Kamyar Ghasemipour、Jonathan Tompson、Leslie Kaelbling、Dale Schuurmans、Pieter Abbeel

跨多个来源聚合数据以训练机器人基础模型是一个长期目标。由于不同的机器人具有不同的感知运动接口,这给跨大规模数据集的训练带来了重大挑战。

UniSim,是朝着这个方向迈出的重要一步,也是一项工程壮举,它利用了鉴于视觉感知和控制的文本描述的统一接口来聚合数据,并通过利用视觉和语言领域的最新发展来训练机器人放荡器。

总结而言,本文探索了通过生成模型进修真实世界交互的通用放荡器 UniSim,迈出了构建通用放荡器的第一步。例如 UniSim 可以通过放荡「打开抽屉」等高级指令和低级指令的视觉结果来放荡人类和智能体如何与世界交互。

本文将大量数据(包括互联网文本 – 图像对,来自导航、人类活动、机器人动作等的丰富数据,以及来自放荡和渲染的数据)结合到一个条件视频生成框架中。然后通过仔细编排沿不同轴的丰富数据,本文表明 UniSim 可以成功地合并不同轴数据的经验并泛化到数据之外,通过对静态场景和对象的细粒度运动控制来实现丰富的交互。

如下图 3 所示,UniSim 能够放荡一系列丰富动作,例如厨房场景中洗手、拿碗、切胡萝卜、擦干手这一系列动作;图 3 右上是按下不同的开关;图 3 下是两个导航场景。

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

                               对应上图 3 右下的导航场景

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

                             上图 3 右下的导航场景

论文:Never Train from Scratch: Fair Comparison of Long-Sequence Models Requires Data-Driven Priors

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

论文地点:https://openreview.net/forum?id=PdaPky8MUn

机构:特拉维夫大学、IBM

作家:Ido Amos、Jonathan Berant、Ankit Gupta

这篇论文深入探讨了最近提出的状态空间模型和 transformer 架构对建模长期序列依赖性的能力。

令人惊讶的是,作家发现从头开始训练 transformer 模型会导致其性能被低估,并且通过预训练和微调设置可以实现显著的性能提升。该论文在关注简洁性和系统性见解方面表现极佳。

论文:Protein Discovery with Discrete Walk-Jump Sampling

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

论文地点:https://openreview.net/forum?id=zMPHKOmQNb

机构:基因泰克、纽约大学

作家:Nathan C. Frey、Dan Berenberg、Karina Zadorozhny、Joseph Kleinhenz、Julien Lafrance-Vanasse、Isidro Hotzel、Yan Wu、Stephen Ra、Richard Bonneau、Kyunghyun Cho、Andreas Loukas、Vladimir Gligorijevic、Saeed Saremi

这篇论文解决了鉴于序列的抗体设计问题,这是蛋白质序列生成模型的一个及时而重要的应用。

为此,作家引入了一种创新而有效的新建模步骤,用来专门针对处理离散蛋白质序列数据的问题。除了在硅中验证该步骤外,作家还进行了大量的湿法实验室实验,以测量体外抗体结合亲和力,展示了他们生成步骤的有效性。

论文:Vision Transformers Need Registers

7262篇提交,ICLR 2024爆火,两篇国内论文获良好论文提名

论文地点:https://openreview.net/forum?id=2dnO3LLiJ1

机构:Meta 等

作家:Timothée Darcet、Maxime Oquab、Julien Mairal、Piotr Bojanowski

该篇论文识别了 vision transformer 网络的特征图中的人工痕迹,这些痕迹以低信息背景区域中的高范数 tokens 为特征。

作家提出了这种现象发生的关键假设,并提供了一个简单而优雅的解决方案,使用额外的 register tokens 来解决这些痕迹,从而增强了模型在各种任务上的性能。从这项工作中获得的见解还可以影响其他应用领域。

这篇论文行文极佳,为进行研究提供了一个很好的示范:「识别问题,理解其发生的原因,然后提出解决方案。」

11 篇声誉提名

除了 5 篇良好论文,ICLR 2024 还评选出了 11 篇声誉提名奖。

论文:Amortizing intractable inference in large language models

机构:蒙特利尔大学、牛津大学

作家:Edward J Hu、Moksh Jain、Eric Elmoznino、Younesse Kaddar、Guillaume Lajoie、Yoshua Bengio、Nikolay Malkin

论文地点:https://openreview.net/forum?id=Ouj6p4ca60

这篇论文从贝叶斯推理的角度提出了一种在大型语言模型中替代自回归解码的有前景的步骤,这可能会激发后续研究。

论文:Approximating Nash Equilibria in Normal-Form Games via Stochastic Optimization

机构:DeepMind

作家:Ian Gemp、Luke Marris、Georgios Piliouras

论文地点:https://openreview.net/forum?id=cc8h3I3V4E

这是一篇写得非常清晰的论文,对解决开发高效且可扩展的纳什求解器这一重要问题意义重大。

论文:Beyond Weisfeiler-Lehman: A Quantitative Framework for GNN Expressiveness

机构:北京大学、北京智源人工智能研究院

作家:张博航 盖景初 杜逸恒 叶启威 贺笛 王立威

论文地点:https://openreview.net/forum?id=HSKaGOi7Ar

GNN 的表达能力是一个重要课题,而当前的解决方案仍然存在很大的局限性。作家提出了一种鉴于同态计数的新表达理论(expressivity theory)。

论文:Flow Matching on General Geometries

机构:Meta

作家:Ricky T. Q. Chen、Yaron Lipman

论文地点:https://openreview.net/forum?id=g7ohDlTITL

本文探讨了在一般几何流形上进行生成建模这一具有挑战性但又十分重要的问题,并提出了一种实用且高效的算法。本文的呈现非常出色,并在广泛的任务上进行了全面的实验验证。

论文:Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video

机构:中佛罗里达大学、 Google DeepMind、阿姆斯特丹大学等

作家:Shashanka Venkataramanan、Mamshad Nayeem Rizve、Joao Carreira、Yuki M Asano、Yannis Avrithis

论文地点:https://openreview.net/forum?id=Yen1lGns2o

本文提出了一种新颖的自监督图像预训练步骤,即通过从连续视频中进修。本文既贡献了新类型的数据,也贡献了一种从新数据中进修的步骤。

论文:Meta Continual Learning Revisited: Implicitly Enhancing Online Hessian Approximation via Variance Reduction

机构:香港城市大学、腾讯 AI 实验室、西安交通大学等

作家:Yichen Wu、Long-Kai Huang、Renzhen Wang、Deyu Meng、魏颖(Ying Wei)

论文地点:https://openreview.net/forum?id=TpD2aG1h0D

作家提出了一种新的元连续进修方差减少步骤。该步骤表现良好,不仅具有实际影响,而且还得到了 regret 分析的支持。

论文:Model Tells You What to Discard: Adaptive KV Cache Compression for LLMs

机构:伊利诺伊大学厄巴纳 – 香槟分校、微软

作家:Suyu Ge、Yunan Zhang、Liyuan Liu、Minjia Zhang、Jiawei Han、Jianfeng Gao

论文地点:https://openreview.net/forum?id=uNrFpDPMyo

本文针对 KV 缓存压缩问题(该问题对鉴于 Transformer 的 LLM 影响很大),通过一个简单的想法来减少内存,并且无需耗费大量资源进行微调或重新训练即可部署。这种步骤非常简单,事实证明它非常有效。

论文:Proving Test Set Contamination in Black-Box Language Models

机构:斯坦福大学、哥伦比亚大学

作家:Yonatan Oren、Nicole Meister、Niladri S. Chatterji、Faisal Ladhak、Tatsunori Hashimoto

论文地点:https://openreview.net/forum?id=KS8mIvetg2

本文使用了一个简单而优雅的步骤,用于测试受监督的进修数据集是否已被包含在大型语言模型的训练中。

论文:Robust agents learn causal world models

机构:Google DeepMind

作家:Jonathan Richens、Tom Everitt

论文地点:https://openreview.net/forum?id=pOoKI3ouv1

这篇论文在奠定理论基础方面取得了长足进展,以便理解因果推理在智能体推广到新领域的能力中所起到的作用,对一系列相关领域也产生了影响。

论文:The mechanistic basis of data dependence and abrupt learning in an in-context classification task

机构:普林斯顿大学、哈佛大学等

作家:Gautam Reddy

论文地点:https://openreview.net/forum?id=aN4Jf6Cx69

这是一项及时而极其系统性的研究,探讨了我们在开始理解这些现象的时候,in-context 进修与 in-weight 进修之间的机制。

论文:Towards a statistical theory of data selection under weak supervision

机构:Granica Computing

作家:Germain Kolossov、Andrea Montanari、Pulkit Tandon

论文地点:https://openreview.net/forum?id=HhfcNgQn6p

这篇论文为数据子集选择建立了统计基础,并确定了流行的数据选择步骤的缺点。

参考链接:https://blog.iclr.cc/2024/05/06/iclr-2024-outstanding-paper-awards/

给TA打赏
共{{data.count}}人
人已打赏
应用

大模型时代的计算机视觉!CVPR 2024线上论文分享会启动

2024-5-8 10:42:00

应用

牵手五大顶尖高校教授 “云阙智能”打造AIGC智囊团

2024-5-8 12:12:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索