谷歌Gemini再添猛将!GPA 5.0毕业即DeepMind高级科学家,开挂博士给科研新人7点建议

就在Gemini 2.0发布之前几天,一位新晋华人博士宣布加入Google DeepMind,作为高级研究科学家致力于Gemini预训练和多模态研究。 薛复昭,博士毕业于新加坡国立大学师从尤洋教授,2021年以5.0的GPA成绩硕士毕业于南洋理工大学,师从庄永聪教授和孙爱欣教授。 在新加坡国立大学攻读博士期间,曾在Google Brain与谷歌天才科学家Yi Tay和Mostafa Dehghani一起实习,并在NVIDIA GEAR与Jim Fan和Yuke Zhu一起实习。

就在Gemini 2.0发布之前几天,一位新晋华人博士宣布加入Google DeepMind,作为高级研究科学家致力于Gemini预训练和多模态研究。

图片

薛复昭,博士毕业于新加坡国立大学师从尤洋教授,2021年以5.0的GPA成绩硕士毕业于南洋理工大学,师从庄永聪教授和孙爱欣教授。

在新加坡国立大学攻读博士期间,曾在Google Brain与谷歌天才科学家Yi Tay和Mostafa Dehghani一起实习,并在NVIDIA GEAR与Jim Fan和Yuke Zhu一起实习。

图片

读博3年的7点心得

  1. 工程能力是研究的基础

虽然工程能力普遍很重要,但在学术界似乎特别被低估。例如,在我几年前的经历中,人工智能博士招生很少进行编程面试。这很令人惊讶,因为实现是将人工智能想法付诸实践的关键步骤。许多人可能会广泛讨论研究概念,但无法将其转化为实际应用。

强大的工程能力不仅能让我们为大规模项目做出贡献(这是在大语言模型社区产生重要影响的常见方式),还能激发创新的研究思路。最近的进展,如Scaling Law, MoE, GQA, Flash Attention,往往源于对底层技术和社区面临挑战的深入理解。

  1. 与优秀人才共事对提升研究品味极其有帮助

什么是「研究品味」?在我看来,就是比他人更早识别出有前景的研究方向的能力。那么...该如何做?去问他们!就像我们在大语言模型中在强化学习之前进行监督训练一样,我们需要指导和引导来培养自己的「研究品味」。

在我博士早期,我有幸在谷歌与Yi Tay和Mostafa Dehghani合作,这段经历显著塑造了我的职业轨迹。我经历的文化冲击令人深省。受此启发,我主动寻求机会与其他杰出研究者合作,如Jim Fan (范麟熙)、朱玉可、Scott Reed、符尧等。

要真正理解他们的研究品味,我们需要在两个关键方面达成一致:

  • 为什么这个问题在技术上很重要?
  • 这个人是如何培养出这样的技能和思维方式的?

有趣的是,具有良好研究品味的人并不总能清楚回答这些问题,尤其是第二个问题。这就是为什么我认为与这些人密切合作能让我们深入了解他们的日常习惯、决策过程和解决问题的方法,尽管你也可以通过电子邮件等方式询问他们。

  1. 博士期间要致力于做出简洁而有见地的45分钟演讲,而不是追求长长的发表清单

人们攻读博士通常有两个主要原因,即享受科研乐趣和找到好工作。对于工作面试,有一个「还可以」的发表记录通常足以让你通过初选。

然而,在面试过程中真正重要的远不止论文清单和简历。通常会有研究演讲和几次一对一的研究面试(除了基础知识和代码)。虽然听众规模不同,但核心目标始终相同:做出引人入胜且连贯的演讲。

要在这些场合表现出色,要专注于创建一个扎实的整体演讲,并定期(如每5分钟)加入富有见地的观察,以保持听众的兴趣。

  1. 专注于少量重要论文并深入理解,而不是浅尝辄止地阅读很多文章

我通常会果断筛选掉arXiv上99%的论文,只关注有影响力的工作、知名作者和声誉良好的机构。

(我理解这种方法有其偏见——一些有价值的工作可能因各种原因被低估。但事实是,这种方法通常很高效。我认为最好的工作最终都会通过引用、讨论或他人推荐出现在我们面前。)

虽然你可能偶尔会错过一些被埋没的好论文,但更重要的是不要被杂乱的论文淹没。花太多时间在这些工作上可能会将你的研究品味拉向局部最小值,特别是当你刚进入这个领域缺乏甄别能力时,这可能需要相当长的时间和努力来纠正。

  1. 在接触新课题时,要按时间顺序阅读论文以研究研究趋势的演变

例如,你可以按照这个顺序来阅读和学习MoE-LLMs。这样,你可以更容易地识别和总结趋势,创建连接不同工作的「思维链」,比如Expert-Choice MoE解决了baseline MoEs中的什么问题。这个过程不仅加深了你的理解和推理能力,还能让你超越领域的当前状态进行推广。

有了这个更广阔的视角,你可能会发现有价值的未来研究方向。此外,人们自然倾向于更好地记住最近的信息。作为研究者,跟上最新发展至关重要,所以这种方法与我们处理和保留信息的方式很相符。

  1. 换位思考是提升写作和演讲的有效方法

我的写作仍有很大提升空间。不过,我发现换位思考在以下两种情况下特别有帮助:

  • 写作时设身处地为读者着想。读者来自不同背景,而且时间有限。考虑到这些因素来撰写文稿很重要。关键是要让你的写作易于目标受众理解。保持简洁,既不要太长,也不要太浅或太深,专注于你想传达的最重要观点。考虑在读者的限制条件下,什么内容最有影响力。
  • 阅读时想象作者写作时的所思所想。学术论文和演讲信息密度很高。作者通常花费大量时间精炼它们,但背后的原始数据或想法往往杂乱无章。在阅读他人的作品时,不要被动接收,要思考你会如何处理原始材料。如果你能接触到初始数据,你会讲述什么样的故事?你会画什么图来阐明观点?与你自己平时的写作方法相比,作者的思路的哪些部分更值得借鉴?这个练习让你有频繁的机会练习写作和演讲,而不是等花几个月完成整个项目后才有机会来练习。
  1. 博士学位有帮助但不是从事大语言模型研究的必要条件

攻读博士可以提供宝贵的学习经验。除了科研技能,学术界擅长的一个领域是教学模块——这在工业实验室中很少遇到。作为助教,你有机会设计讲座、作业、辅导和考试。这种经验与进行研究或指导初级研究人员不同,如果你的目标是成为教授,这是必不可少的。

然而,如果你的主要目标是直接为最先进的大语言模型做出贡献,直接加入研究实验室可能更有效。在工业实验室,你可能会有:

  • 获取更强大的计算资源。
  • 与实践经验丰富、技能出众且自我驱动的同事合作。
  • 参与具有重大影响力的大型项目的机会。

在我的博士期间,我在工业实验室实习,但读者也完全可以作为研究工程师或AI驻地研究员加入这样的实验室。在我看来,这些职位可以成为成为大语言模型研究者的快速通道,让你有机会在实践性强、影响力大的环境中学习所需的大部分技能。

值得注意的是,像Google DeepMind,OpenAI这样的地方有许多杰出的研究人员并没有博士学位。这突显出虽然博士学位有益,但它并不是在大语言模型研究领域取得成功的唯一途径。

相关资讯

「机器学习之父」Mitchell 撰文:AI 如何加速科学发展,美国如何抓住机遇

编辑 | ScienceAI近日,卡内基梅隆大学(Carnegie Mellon University)教授,有着「机器学习之父」之称的 Tom M. Mitchell 撰写了新的 AI for Science 白皮书,重点讨论了「人工智能如何加速科学发展?美国政府如何帮助实现这一目标?」这一主题。ScienceAI 对白皮书原文进行了不改变原意的全文编译,内容如下。人工智能领域最近取得了显著进展,包括 GPT、Claude 和 Gemini 等大型语言模型,因此提出了这样一种可能性:人工智能的一个非常积极的影响,

GPT做不好图生成?Tokenization是关键!新方法重新定义图生成和表示方式

编辑 | ScienceAI图(Graphs)是描述复杂关系和结构化数据的重要工具,从分子设计到社交网络分析,它们在许多领域都扮演着关键角色。 然而,图生成的高效性与灵活性一直是一个挑战。 今天,我们向大家介绍一项突破性的研究——Graph Generative Pre-trained Transformer,简称 G2PT,一个重新定义图生成和表示方式的自回归模型。

AI for Science 开源新项目「Polymathic AI」,Yann LeCun担任顾问

编辑 | 紫罗过去几年,通过在大量不同的数据集上训练通用模型,视觉和自然语言处理 (NLP) 机器学习领域取得了重大进展。这导致了「基础模型」的出现。例如,「大型语言模型」引发了 NLP 的复兴:微调或提示通才模型现在已成为标准做法,而不是从头开始训练专业模型。然而,机器学习在科学数据集上的应用尚未发生类似的范式转变。这就是「Polymathic AI」(博学人工智能)研究计划寻求解决的一个未实现的机会。图灵奖得主、Meta 首席科学家 Yann LeCun 表示:「很高兴成为 AI for Science 新计划