12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

没想到,自 2012 年 AlexNet 开启的深度进修革命已经过去了 12 年。而如今,我们也进入了大模型的时代。近日,知名 AI 研讨科学家 Andrej Karpathy 的一条帖子,让参与这波深度进修变革的许多大佬们陷入了回顾杀。从图灵奖得主 Yann LeCun 到 GAN 之父 Ian Goodfellow,纷纷忆往昔。到目前为止,该帖子已经有 63 万 的浏览量。在帖子中,Karpathy 提到:有一个有趣的事实是,很多人可能听说过 2012 年 ImageNet/AlexNet 的时刻,以及它开

没想到,自 2012 年 AlexNet 开启的深度进修革命已经过去了 12 年。

而如今,我们也进入了大模型的时代。

近日,知名 AI 研讨科学家 Andrej Karpathy 的一条帖子,让参与这波深度进修变革的许多大佬们陷入了回顾杀。从图灵奖得主 Yann LeCun 到 GAN 之父 Ian Goodfellow,纷纷忆往昔。

到目前为止,该帖子已经有 63 万 + 的浏览量。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

在帖子中,Karpathy 提到:有一个有趣的事实是,很多人可能听说过 2012 年 ImageNet/AlexNet 的时刻,以及它开启的深度进修革命。不过,可能很少有人知道,支持这次竞赛获胜作品的代码是由 Alex Krizhevsky 从头开始,用 CUDA/C++ 手工编辑的。这个代码仓库叫做 cuda-convnet, 过后托管在 Google Code 上:

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

https://code.google.com/archive/p/cuda-convnet/

Karpathy 想着 Google Code 是不是已经关闭了 (?),但他在 GitHub 上找到了一些其他开发者基于原始代码创建的新版本,比如:

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

https://github.com/ulrichstern/cuda-convnet

“AlexNet 是最早将 CUDA 用于深度进修的著名例子之一。”Karpathy 回顾说,正是因为利用了 CUDA 和 GPU,AlexNet 才能处理如此大规模的数据 (ImageNet),并在图像识别任务上取得如此出色的表现。“AlexNet 不仅仅是简单地用了 GPU,还是一个多 GPU 系统。比如 AlexNet 利用了一种叫做模型并行的技术,将卷积运算分成两部分,分别运行在两个 GPU 上。”

Karpathy 提醒大家,你要知道那可是 2012 年啊!“在 2012 年 (大约 12 年前),大多数深度进修研讨都是在 Matlab 中进行,跑在 CPU 上,在玩具级别的数据集上不断迭代各种进修算法、网络架构和优化思路。” 他写道。但 AlexNet 的作者 Alex、Ilya 和 Geoff 却做了一件与过后的主流研讨风格完全不同的事情 ——“不再纠结于算法细节,只需要拿一个相对标准的卷积神经网络 (ConvNet),把它做得非常大,在一个大规模的数据集 (ImageNet) 上训练它,然后用 CUDA/C++ 把整个东西实现出来。”

Alex Krizhevsky 直接利用 CUDA 和 C++ 编辑了所有的代码,包括卷积、池化等深度进修中的基本操作。这种作法非常创新也很有挑战性,需要程序员对算法、硬件架构、编程语言等有深入理解。

从底层开始的编程方式复杂而繁琐,但可以最大限度地优化性能,充分发挥硬件计算能力,也正是这种回归根本的作法为深度进修注入了一股强大动力,构成深度进修历史上的转折点。

有意思的是,这一段描述勾起不少人的回顾,大家纷纷考古 2012 年之前自己利用什么工具实现深度进修项目。纽约大学计算机科学教授 Alfredo Canziani 过后用的是 Torch,“从未听说有人利用 Matlab 进行深度进修研讨……” 。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

对此 Yann lecun 表示同意,2012 年大多数重要的深度进修都是用 Torch 和 Theano 完成的。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

Karpathy 有不同看法,他接话说,大多数项目都是在用 Matlab ,自己从未利用过 Theano,2013-2014 年利用过 Torch。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

一些网友也透露 Hinton 也是用 Matlab。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

看来,过后利用 Matlab 的并不少:

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

知名的 GAN 之父 Ian Goodfellow 也现身说法,表示过后 Yoshua 的实验室全用 Theano,还说自己在 ImageNet 发布之前,曾为 Alex 的 cuda-convnet 编辑了 Theano 捆绑包。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

谷歌 DeepMind 主管 Douglas Eck 现身说自己没用过 Matlab,而是 C++,然后转向了 Python/Theano。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

纽约大学教授 Kyunghyun Cho 表示,2010 年,他还在大西洋彼岸,过后利用的是 Hannes SChulz 等人做的 CUV 库,帮他从 Matlab 转向了 python。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

Lamini 的联合创始人 Gregory Diamos 表示,说服他的论文是吴恩达等人的论文《Deep learning with COTS HPC systems》。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

论文表明 Frankenstein CUDA 集群可以击败 10,000 个 CPU 组成的 MapReduce 集群。

12年前上手深度进修,Karpathy掀起一波AlexNet时代回顾杀,LeCun、Goodfellow等都下场

论文链接:https://proceedings.mlr.press/v28/coates13.pdf

不过,AlexNet 的巨大成功并非一个孤立的事件,而是过后整个领域发展趋势的一个缩影。一些研讨人员已经意识到深度进修需要更大的规模和更强的计算能力,GPU 是一个很有前景的方向。Karpathy 写道,“当然,在 AlexNet 出现之前,深度进修领域已经有了一些向规模化方向发展的迹象。例如,Matlab 已经开始初步支持 GPU。斯坦福大学吴恩达实验室的很多工作都在朝着利用 GPU 进行大规模深度进修的方向发展。还有一些其他的并行努力。”

考古结束时,Karpathy 感慨道  “在编辑 C/C++ 代码和 CUDA kernel 时,有一种有趣的感觉,觉得自己仿佛回到了 AlexNet 的时代,回到了 cuda-convnet 的时代。”

当下这种 "back to the basics" 的作法与当年 AlexNet 的作法有着异曲同工 ——AlexNet 的作者从 Matlab 转向 CUDA/C++,是为了追求更高的性能和更大的规模。虽然现在有了高级框架,但在它们无法轻松实现极致性能时,仍然需要回到最底层,亲自编辑 CUDA/C++ 代码。

对了,过后国内的研讨者们都是用什么?欢迎留言讨论。

给TA打赏
共{{data.count}}人
人已打赏
应用

告别偏科,能玩转多模态、多工作、多领域的加强智能体终于来了

2024-5-6 11:51:00

应用

看透物体的3D表现和生成模型:NUS团队提出X-Ray

2024-5-6 14:27:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索