「Pop SOTA!List for AI Developers 2021」社区评价 TOP 128 价值工作完整名录发布!

2022 年初,我们对 2021 年度发布于 arXiv 的「SOTA」AI 论文进行了一轮分析,试图找到 2021 年度,对 AI 开发者最具价值的「Pop SOTA!」工作。但面对超过 2 万篇的「SOTA」工作,我们产生了疑惑 —— 自称「SOTA」的工作就一定是先进的吗?对广大 AI 开发者来说,什么样才是先进的技术工作?是思路具有启发性?还是跑出的实验分数高?是易于实现,对数据资源、计算资源的需求可控?还是放出的代码实现即插即用,可用性强?

2022 年 1 月 19 日我们通过机器之心公众号推文向机器之心的老伙计们请求了援助,开展了为期 6 天的「Pop SOTA!List for AI Developers 2021」评价活动,邀请老伙计们帮助我们就自己熟悉的工作的「引领性」、「启发性」和「应用可行性」对「Pop SOTA!」项目组预选的 TOP 256 个年度价值工作共同再进行一轮价值评价,形成一份更具代表性的 2021 年度价值工作名录。

现在,我们来公布社区评价结果了!

以下为基于社区评价形成的「Pop SOTA!List for AI Developers 2021」年度价值工作 TOP128 ——

「Pop SOTA!List for AI Developers 2021」社区评价 TOP 128 价值工作完整名录发布!

感兴趣的社区老伙计可移步下载文档,查看明细::https://www.jiqizhixin.com/short_urls/da89c342-3ff8-4683-8295-b62a7e60e98f 

与此同时,我们也邀请各位老伙计们反馈发现的评价过程及数据分析中的漏洞与不足,帮助我们改进,共同为未来形成更加完善的社区价值名录出一份力,在此提前致谢!反馈发送至邮箱:[email protected]

相关资讯

超越现有指标57.3%,邢波教授、胡志挺教授团队提出统一NLG评价框架

长期以来,评价机器生成的文本比较困难。近日,CMU邢波(Eric Xing)教授和UCSD胡志挺(Zhiting Hu)教授的团队提出用一种运算符,统一各类生成任务的评价方式,为未来各种新任务、新要求提供了更加统一的指导。实验表明,基于统一框架设计的评价指标,在多个任务上超过了现有指标与人工评分的相似度,现在通过PyPI和GitHub可以直接调用。

机器之心升级「SOTA!模型」资源站,万余模型覆盖千余AI任务

机器之心于2022年第一季度推出新版「SOTA 模型」资源站。作为专注服务中国开发者的第三方平台,该站点在对每日学界、业界最新的SOTA工作进行追踪的同时,汇总了原作团队、社区用户所放出的模型文件、实现代码、数据集等开发资源,帮助用户快速上手尝试新技术。当前新版 「SOTA!模型」已收录超过15000个模型资源,覆盖超过1000个AI任务。用户可通过「检索模型」功能基于模型资源所适配的硬件类型、计算平台、框架及模型规模等维度高效查询。作为专业的人工智能信息平台,机器之心于2019年9月发布了首版「SOTA 模型」项

伯克利大神一人投中16篇:ICLR 2021论文接收统计出炉

ICLR 2021 会议中投稿量和论文接收量最多的作者和机构都有哪些?这个 GitHub 项目做了一个统计。