中科院计算所、中国科学院大学、中关村实验室合作的一篇论文拿到了 EMNLP 2024 最佳论文奖。 刚刚,EMNLP 2024 论文奖项结果出炉了! EMNLP 2024 会议近日在美国迈阿密盛大开幕,现场热闹非凡。
中科院计算所、中国科学院大学、中关村实验室合作的一篇论文拿到了 EMNLP 2024 最佳论文奖。
让国内研究者更加激动的是,EMNLP 2025 将在中国苏州举办:
-
作者:Simran Khanuja, Sathyanarayanan Ramamoorthy,Yueqi Song,Graham Neubig -
机构:CMU -
链接:https://aclanthology.org/2024.emnlp-main.573.pdf -
获奖理由:介绍了「transcreation」的概念,即生成文化上合理的图像,并提供了一个基准数据集来评估 LLM 在这项任务中的能力,开辟了一个具有重大现实意义的新研究领域。
-
作者:William Chen, Wangyou Zhang, Yifan Peng, Xinjian Li, Jinchuan Tian,Jiatong Shi, Xuankai Chang, Soumi Maiti, Karen Livescu, Shinii Watanabe -
机构:CMU、上海交大、丰田工业大学(芝加哥) -
链接:https://aclanthology.org/2024.emnlp-main.570.pdf -
获奖理由:发布了一个涵盖 4000 多种语言、超过 100 万小时语音的数据集,以及一个在数据基础上训练的多语言模型。
-
作者:Shahar Katz, Yonatan Belinkov, Mor Geva, Lior Wolf -
机构:以色列理工学院、特拉维夫大学 -
链接:https://aclanthology.org/2024.emnlp-main.142.pdf -
获奖理由:通过将梯度投射到词汇空间来实现可解释性,为模型编辑引入了一种优雅而直观的方法。
-
作者:Weichao Zhang, Ruging Zhang, Jiafeng Guo, Maarten de Rijke, Yixing Fan,Xueqi Cheng -
机构:中科院计算所、中国科学院大学、中关村实验室、阿姆斯特丹大学 -
链接:https://aclanthology.org/2024.emnlp-main.300.pdf -
获奖理由:提出了一种用于预训练数据黑盒检测的新数据集和方法
-
作者:Mustafa Omer Gul, Yoav Artzi -
机构:康奈尔大学 -
链接:https://aclanthology.org/2024.emnlp-main.721.pdf -
获奖理由:探索语言理解与语言生成的结合,以改善双人参考游戏中的人际互动。
-
论文 1:Fishing for Magikarp: Automatically Detecting Under-trained Tokens in Large Language Models -
作者:Sander Land、Max Bartolo -
机构:Cohere -
链接:https://www.alphaxiv.org/abs/2405.05417v1 -
获奖理由:深入探讨了多个开源 LLM 中未充分训练的 token 所引发的问题。
-
论文 2:Learning to Retrieve lteratively for in-Context Learning -
作者:Yunmo Chen, Tongfei Chen, Harsh Jhamtani, Patrick Xia, Richard Shin, Jason Eisner, Benjamin Van Durme -
机构:微软 -
链接:https://arxiv.org/abs/2406.14739 -
获奖理由:提出了一种创造性的方法,将 in-context leaming 示例的选择建模为马尔可夫决策过程。
-
论文 3:Measuring Psychological Depth in Language Models -
作者:Fabrice Y Harel-Canada, Hanyu Zhou, Sreya Muppalla, Zeynep Senahan Yildiz, Miryung Kim, Amit Sahai, Nanyun Peng -
机构:加州大学洛杉矶分校 -
链接:https://arxiv.org/abs/2406.12680 -
获奖理由:提供了一套以叙事理论为基础的有用指标,用于评估 LLM 的叙事写作。
-
论文 4:Do LLMs Plan Like Human Writers? Comparing Journalist Coverage of Press Releases with LLMs -
作者:Alexander Spangher, Nanyun Peng, Sebastian Gehrmann, Mark Dredze -
机构:南加利福尼亚大学、加州大学洛杉矶分校、彭博社 -
链接:https://openreview.net/forum?id=E3VS45jxPR -
获奖理由:提出了一种通过将 LLM 与新闻记者进行比较来评估 LLM 的方法和数据集
-
论文 5:Words Worth a Thousand Pictures: Measuring and Understanding Perceptual Variability inText-to-mage Generation -
作者:Raphael Tang, Crvstina Zhang, Lixinyu Xu, Yao Lu, Wenvan Li, Pontus Stenetor, Jimmy Lin, Ferhan Ture -
机构:Comcast AI Technologies、滑铁卢大学、伦敦大学学院、哥本哈根大学 -
链接:https://arxiv.org/pdf/2406.08482 -
获奖理由:为文本到图像的生成提出了一种经人工校准的可变性测量方法,并对实际影响进行了全面的学科间分析和讨论。
-
论文 6:Finding Blind Spots in Evaluator LLMs with Interpretable Checklists -
作者:Sumanth Doddapaneni, Mohammed Safi Ur Rahman Khan, Sshubam Verma, Mitesh M Khapra -
机构:Nilekani Centre at AI4Bharat、印度理工学院 -
链接:https://arxiv.org/abs/2406.13439 -
获奖理由:关于使用 LLM 作为评估者的研究,信息丰富,发人深省。
-
论文 7:GoldCoin: Grounding Large Language Models in Privacy Laws via Contextual Integrity Theory -
作者:Wei Fan, Haoran Li, Zheye Deng, Weiqi Wang, Yanggiu Song -
机构:香港科技大学计算机科学与工程系 -
链接:https://arxiv.org/html/2406.11149v1 -
获奖理由:提出了一个框架,该框架利用隐私场景公正理论(Contextual Integrity Theory) 将大型语言模型与隐私法对齐,增强了它们在各种上下文中检测隐私风险的能力。
-
论文 8:Verification and Refinement of Natural Language Explanations through LLM-Symbolic Theorem Proving -
作者:Xin Quan, Marco Valentino, Louise A. Dennis, Andre Freitas -
机构:曼彻斯特大学、瑞士 Idiap 研究所 -
链接:https://aclanthology.org/2024.emnlp-main.172.pdf -
获奖理由:提出了一个集成 LLM 和定理证明的神经符号框架,以提高 NLl 任务的自然语言解释的质量和逻辑有效性。
-
论文 9:The Zeno's Paradox of'Low-Resource’ Languages -
作者:Helina Hailu Niaatu, Atnafu Lambebo Tonia, Benjamin Rosman, Thamar Solorio, Monoit Choudhury -
机构:MBZUAI 等 -
链接:https://arxiv.org/pdf/2410.20817 -
获奖理由:仔细研究了「低资源语言意味着什么」这个问题。
-
论文 10:When is Multilinguality a Curse? Language Modeling for 250 High- and Low-Resource Languages -
作者:Tvler A.Chana. Catherine Arnett. Zhuowen Tu, Ben Bergen -
机构:加州大学圣迭戈分校 -
链接:https://arxiv.org/pdf/2311.09205 -
获奖理由:对影响 LLM 跨语言预训练和性能的因素进行了广泛而严格的实证调查。
-
论文 11:Language Models Learn Rare Phenomena from Less Rare Phenomena: The Case of the Missing AANNS -
作者:Kanishka Misra, Kyle Mahowald -
机构:得克萨斯大学奥斯汀分校 -
链接:https://arxiv.org/pdf/2403.19827 -
获奖理由:介绍了一个有意思的实验设置,演示了 LLM 如何泛化以学习罕见现象。
-
论文 12:Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting -
作者:Maxime Guillaume Kayser, Bayar Menzat, Cornelius Emde, Bogdan Alexandru Bercean, Alex Novak, Abdalá Trinidad Espinosa Morgado, Bartlomiej Papiez, Susanne Gaube, Thomas Lukasiewicz, Oana-Maria Camburu -
机构:牛津大学、维也纳技术大学等 -
链接:https://arxiv.org/pdf/2410.12284 -
获奖理由:评估了临床人体研究中不同类型解释的有用性。
-
论文 13:Threshold-driven Pruning with Segmented Maximum Term Weights for Approximate Cluster-based Sparse Retrieval -
作者:Yifan Qiao, Parker Carlson, Shanxiu He ,Yingrui Yang, Tao Yang -
机构:加州大学圣巴巴拉分校 -
链接:https://sites.cs.ucsb.edu/~tyang/papers/2024EMNLP-CameraReady.pdf -
获奖理由:提出了一个 probablistically-rank-safe 的动态 pruning 方案,用于快速的基于聚类的稀疏检索,这个方案对于当前检索系统和 RAG 管道来说非常重要。
-
论文 14:Learning Planning-based Reasoning by Trajectories Collection and Process Reward Synthesizing -
作者:Fangkai Jiao, Chengwei Qin, Zhengyuan Liu, Nancy F. Chen, Shafig Joty -
机构:新加坡南洋理工大学、新加坡信息通讯研究院、Salesforce 研究院 -
链接:https://arxiv.org/html/2402.00658v2 -
获奖理由:通过对合成数据提供中间基本原理监督,并在 trajectory 上应用 DPO,增强了 LLM 的推理能力。
-
论文 15:Are Large Language Models Capable of Generating Human-Level Narratives? -
作者:Yufei Tian, Tenghao Huang,Miri Liu, Derek Jiang, Alexander Spangher, Muhao Chen, Jonathan May, Nanyun Peng -
机构:加州大学洛杉矶分校、南加利福尼亚大学、加州大学戴维斯分校 -
链接:https://arxiv.org/pdf/2407.13248 -
获奖理由:引入了一个框架,在话语(discourse)层面评估 LLM 生成的叙述。
-
论文 16:Formality is Favored: Unraveling the Learning Preferences of Large Language Models on Data with Conflicting Knowledge -
作者:Jiahuan Li, Yiging Cao, Shuiian Huang, Jiajun Chen -
机构:南京大学计算机软件新技术国家重点实验室 -
链接:https://arxiv.org/pdf/2410.04784 -
获奖理由:研究了 LLM 在训练数据信息相互冲突的情况下如何学习。
-
论文 17:OATH-Frames: Characterizing Online Attitudes Towards Homelessness with LLM Assistants -
作者:Jaspreet Ranjit, Brihi Joshi, Rebecca Dorn, Laura Petry, Olga Koumoundouros, Jayne Bottarini, Peichen Liu, Eric Rice, Swabha Swayamdipta -
机构:南加利福尼亚大学计算机科学系、 -
链接:https://aclanthology.org/2024.emnlp-main.724.pdf -
获奖理由:在领域专家和 LLM 助理的帮助下,对公众对无家可归者的态度进行大规模分析。
-
论文 18:SUPER: Evaluating Agents on Setting Up and Executing Tasks from Research Repositories -
作者:Ben Bogin, Kejuan Yang, Shashank Gupta, Kyle Richardson, Erin Bransom, Peter Clark, Ashish Sabharwal, Tushar Khot -
机构:艾伦人工智能研究所、华盛顿大学 -
链接:https://arxiv.org/pdf/2409.07440 -
获奖理由:创新的基准测试,用于评估基于大型语言模型(LLM)的智能体能否复现来自研究库的结果。
-
论文 19:Towards Cross-Cultural Mlachine Translation with Retrieval-Augmented Generation from Multilingual Knowledge Graphs -
作者:Simone Conia, Daniel Lee, Min Li, Umar Faroog Minhas, Saloni Potdar, Yunyao Li -
机构:罗马大学、Adobe、苹果 -
链接:https://arxiv.org/pdf/2410.14057 -
获奖理由:解决了翻译与文化相关的命名实体的挑战,挑战了以前关于如何翻译命名实体的观点。
-
论文 20:Which questions should l answer? Salience Prediction of Inquisitive Questions -
作者:Yating Wu, Ritika Rajesh Mangla, Alex Dimakis, Greg Durrett, Junyi Jessy Li -
机构:德克萨斯大学奥斯汀分校、 BespokeLabs.ai -
链接:https://arxiv.org/abs/2404.10917 -
获奖理由:提出了一种预测语言敏感问题突出程度的方法和数据集,为语言社区内关于人类如何处理信息和信息内容的话语结构的持续辩论提供信息。