爆火免费书《深入理解深度学习》终于出中文版了

这可能是当今最全面、最新的深度学习概述之一。爆火的深度学习领域,最近又有了热门学习资料。近日,麻省理工出版社的新书《Understanding Deep Learning》(深入理解深度学习)迎来了中文版。这本书一共分为 21 个章节,涵盖了深度学习领域的许多关键概念,包括基本构建、Transformer 架构、图神经网络 GNN、强化学习 RL、扩散模型等等。对于不论是初学者,还是已有工作经验的开发者来说都有极高的价值。GitHub 链接::,该书的英文电子版下载量已达到 34.4 万。该书的实体版本在去年 12

这可能是当今最全面、最新的深度学习概述之一。

爆火的深度学习领域,最近又有了热门学习资料。

近日,麻省理工出版社的新书《Understanding Deep Learning》(深入理解深度学习)迎来了中文版。

图片

这本书一共分为 21 个章节,涵盖了深度学习领域的许多关键概念,包括基本构建、Transformer 架构、图神经网络 GNN、强化学习 RL、扩散模型等等。对于不论是初学者,还是已有工作经验的开发者来说都有极高的价值。

GitHub 链接:https://github.com/careywyr/UnderstandingDeepLearning-ZH-CN

书籍原链接:https://udlbook.github.io/udlbook/

目前,该书的英文电子版下载量已达到 34.4 万。

图片

该书的实体版本在去年 12 月正式发布,全书共 541 页,不过它的电子版一直在继续更新。目前在网站上,作者还提供了 68 个 Python 笔记本练习,可以帮助读者通过编程实践加深理解。

本书希望以准确易懂的方式,向人们介绍深度学习的基础思想,旨在帮助刚入门的读者理解深度学习背后的原理。对于想要深入理解本书内容的读者来说,只需要本科水平的数学知识就能读懂。

具体来说,该书在前面的部分介绍了深度学习模型,并讨论了如何训练、评估这些模型,如何提高它们的性能的方法。在接下来的部分,作者会带领我们考察专门用于图像、文本和图数据的架构。后续的章节探讨了生成模型和强化学习。倒数第二章探讨了这些以及其他尚未完全理解的方面。最后一章讨论了 AI 伦理。

目录

第一章 - Introduction 介绍

第二章 - Supervised learning 监督学习

第三章 - Shallow neural networks 浅层神经网络

第四章 - Deep neural networks 深度神经网络

第五章 - Loss functions 损失函数

第六章 - Fitting models 训练模型

第七章 - Gradients and initialization 梯度和初始化

第八章 - Measuring performance 性能评估

第九章 - Regularization 正则化

第十章 - Convolutional networks 卷积网络

第十一章 - Residual networks 残差网络

第十二章 - Transformers

第十三章 - Graph neural networks 图神经网络

第十四章 - Unsupervised learning 无监督学习

第十五章 - Generative adversarial networks 生成对抗网络

第十六章 - Normalizing flows 标准化流

第十七章 - Variational autoencoders 变分自编码器

第十八章 - Diffusion models 扩散模型

第十九章 - Deep reinforcement learning 深度强化学习

第二十章 - Why does deep learning work? 为什么深度学习有效?

第二十一章 - Deep learning and ethics 深度学习与伦理

作者介绍

《深入理解深度学习》的作者是英国巴斯大学(University of Bath)计算机科学教授 Simon J.D. Prince,他专注于研究计算机视觉和计算机图形学。

图片

领英资料显示,Simon J.D. Prince 十几年来一直在研究机构从事计算机科学和 AI 研究工作,例如曾在软件开发公司 Anthropics Technology 担任 7 年首席科学家。2022 年,他加入巴斯大学任名誉教授。

图片

Simon J.D. Prince 已在顶级会议(CVPR、ICCV、SIGGRAPH 等)上发表超过 50 篇论文。他还是《计算机视觉:模型、学习和推理》的作者。

图片

参考链接:

https://x.com/tuturetom/status/1814689613304508777

相关资讯

周志华、李航、邱锡鹏、李沐、Aston Zhang 5位专家指导,机器之心发布ML术语中英对照词表

几年前机器之心发布了一个旨在构建 AI 领域术语库的开源项目「Artificial-Intelligence-Terminology-Database」(简称「AITD」)。最近,该项目迎来了第三版。除了常规的更新之外,机器之心还在周志华教授、李航博士、邱锡鹏教授、李沐博士、Aston Zhang 博士等领域专家的指导及帮助下形成了「机器学习」专题篇。未来,机器之心还将会持续完善术语的收录和扩展阅读的构建,另外我们也希望更多 AI 技术社区成员参与到术语库的构建之中,具体的参与方式可以查看文章详情。2017 年,机

15 秒语音片段就能合成某人声音,OpenAI 小规模开放 Voice Engine 模型

感谢OpenAI 公司近日发布公告,有限开放 Voice Engine 的访问权限,该模型可以根据某人的 15 秒语音片段创建合成语音。OpenAI 在新闻稿中表示:“通过开放小规模部署,有助于我们按照现有方法、保障措施等推进产品落地,并在不断磨合、探索过程中思考,如何将 Voice Engine 用于各行各业”。OpenAI 公司表示,目前已经向教育技术公司 Age of Learning、视觉故事平台 HeyGen、前线健康软件制造商 Dimagi、人工智能通信应用开发商 Livox 和健康系统 Lifespa

Nature | 30多年前的断言被打破了?大模型具备了人类水平的系统泛化能力

我们知道,人类具有「举一反三」的能力,即学习一个新概念后立即就能用它来理解相关用法。例如,当小朋友知道如何「跳」,他们就会明白「在房间里跳两次」是什么意思。而对于机器来说,这种能力是极具挑战性的。20 世纪 80 年代末,哲学家和认知科学家 Jerry Fodor 和 Zenon Pylyshyn 认为人工神经网络缺乏系统组合的能力。几十年来,领域内的研究人员一直在努力让神经网络具备一些泛化能力,但能力很有限。因此,关于 Jerry Fodor 和 Zenon Pylyshyn 的观点的争论也一直存在。现在,来自纽