谷歌大脑深度学习调参(炼丹)指南出炉,Hinton点赞,一天收获1500星

「大量的实践经验已被提炼成这份强大的深度学习模型调参指南。」——Geoffrey Hinton。

众所周知,AI 的超参数决定着模型学习效果和速度。相比普通机器学习任务,深度学习需要的训练时间较长,因此调参技巧就显得尤为重要。

但鉴于深度学习「炼丹」的特性,不同的模型需要不同的超参数,而每个超参的意义又不同,在不同实验中,参数和调整的方向又都不一样。调参这件事一直以来没有固定的套路,每个人都有自己的经验,因此经常会出现一些似是而非的理论,比如:

Random seed = 0 得到坏的结果

Random seed = 42 得到好的结果

为了破除「迷信」,高举科学旗帜,近日来自谷歌大脑、哈佛大学的研究人员发布了《Deep Learning Tuning Playbook》,旨在帮助大家解决这一 AI 领域的老大难问题。

项目 GitHub 上线仅一天就已收获了上千 Star 量:

Image

项目地址:https://github.com/google-research/tuning_playbook

该项目也得到了图灵奖获得者,谷歌 AI 科学家 Geoffrey Hinton 等人的转推支持。Geoffrey Hinton 表示「大量的实践经验已被提炼成这份强大的深度学习模型调参指南。」

Image

文档意义

这份调参指南适用于对改进深度学习模型性能感兴趣的工程师和研究人员。阅读这份指南需要掌握机器学习和深度学习的基本知识。

这份指南的主要内容是调整超参数,也涉及深度学习训练的其他方面,例如 pipeline 实现和优化。指南假设机器学习问题是一个监督学习问题或自监督学习问题,但其中的一些规定也适用于其他类型的问题。

当前,深度神经网络就像一个黑箱,要想在实践中获得良好的性能,需要付出大量的努力和猜测。更糟糕的是,很少有人记录各种研究获得良好结果的实际方法。人们似乎在回避详解实践中的调参问题,也极少分享经验。这让深度学习专家获得的实验结果,与普通从业者复现相似方法获得的结果差距悬殊。

随着深度学习方法的成熟并对世界产生重要影响,深度学习社区需要更多涵盖有用方法的资源,包括对于获得良好结果至关重要的所有实用细节。

本项目是一个由五名研究人员和工程师组成的团队,他们在深度学习领域工作多年,其中一些人早在 2006 年就开始了。

Image

该团队已经将深度学习应用于从语音识别到天文学的各个领域的问题,并在此过程中学到了很多东西。本文档源于工程师们训练神经网络、教授新机器学习工程师以及为同事提供深度学习实践建议的经验。虽然深度学习早已从实验室实践的机器学习方法发展为数十亿人使用的技术驱动产品,但它作为一门工程学科仍处于起步阶段。

该指南是谷歌研究人员在构建自有深度学习方法时产生的,它代表了作者在撰写本文时的观点,而不是任何客观规律。为此,作者鼓励发现其中存在问题的读者提出替代建议和令人信服的证据,以便不断更新完善这份指南。

需要说明的是,这不是 TensorFlow 等谷歌产品的官方支持文档。

指南内容

该指南包含哪些内容?可以分为四大部分:

指导开始新项目

改善模型性能的科学方法

如何决定每次训练运行步数

训练过程中的其他经验

例如第一部分,你开始新项目时如何选择模型架构、优化器、batch 大小等,都有详细的经验指导。

Image

该指南中关于选择模型架构的经验。

而后关于「炼丹」的模型性能改进、训练运行的步数等也有经验分享。

可以说,这份指南可以教你提升模型性能的大量细节。看完下面目录,大家可以去Github细致学习下。

Image

Image

相关资讯

深度学习如炼丹,你有哪些迷信做法?网友:Random seed=42结果好

调参的苦与泪,还有那些「迷信的做法」。

2021入坑机器学习,有这份指南就够了

这是一份适用于小白的机器学习超丰富资源指南。机器学习社区社交媒体上经常有人提出这样的问题:我如何开始机器学习?我如何免费学习?什么是人工智能?我怎样才能学会它?人工智能是如何工作的?我该从何学起?如果我没有开发人员背景,该如何开始?......面对这些问题,油管博主 What's AI——Louis Bouchard 撰写了一份关于「如何在 2021 年零基础开始机器学习」的完整指南,整合了大量学习资源,而且大部分是免费的。项目地址: 1.6K star 量,并且仍在持续更新中。我们来看一下这份指南的具体内容。1.

《Pattern Recognition Letters》特刊通知

主题:深度学习模型安全简介:深度学习已广泛应用于自然语言处理、计算机视觉、数据安全等诸多领域。为学习到有效的深度模型,需花费大量时间和精力来收集数据与分配计算资源。这些模型可能会被非法使用,从而牺牲模型所有者的权益。另一方面,深度学习模型也容易受到对抗样本或毒化数据的攻击。这严重降低了深度学习技术的准确性和可靠性。为此需进行深度学习模型安全研究,保障模型的真实性和可靠性,以抵御各种攻击。该研究还处于起步阶段,虽然已取得了一定进展,但要为基于深度学习的应用开发稳健可靠的模型还远远不够。本期特刊旨在推动深度学习模型的攻