编辑丨toileter
AI 大模型的演变随着时间呈现出井喷的增长趋势,几乎每周甚至于没几天就会有全新的 AI 工具被推出,引来蜂拥而至的研究人员去尝试它们。
现如今花样百出的 AI 工具,让研究者们无论在何种需求上都能自行配置最得心应手的模型,每个大型语言模型 (LLM) 都得以适配不同的任务需要。
总部位于华盛顿州西雅图的 Fred Hutchinson 癌症中心的数据科学家 Carrie Wright 表示,尽管 LLM 会产生类似人类的反应,但它们仍然太容易出错,无法单独使用。
为了协助各位研究同僚,该中心的科研人员与 Nature 分享了他们目前为止最喜欢使用的 LLM 模型。
O3-mini(推理者)
总部位于加利福尼亚州旧金山的 OpenAI 于 2022 年通过其免费使用的 ChatGPT 机器人向世界介绍了 LLM。去年 9 月,该公司自那时以来最重大的进步是 OpenAI 的 o1“推理模型”让科学家们惊叹不已,随后在 12 月推出了更先进的 o3。
科学家们主要使用该机器人来查找信息或用作写作助手,例如起草摘要,但更新的模型正在拓宽该技术的潜在用途。这两种推理模型都比单独的 LLM 工作得更慢,因为它们都经过训练,可以逐步回答查询。这个旨在模拟人类推理的「思维链」过程帮助他们打破了科学和数学的严格基准。
1 月 20 日,在杭州的 DeepSeek 推出了一款极具竞争力的推理器后,OpenAI 推出了一系列新工具作为回应。其中包括快速的 o3-mini,一个对注册聊天机器人用户免费的推理器。
英国牛津大学数学家兼人工智能研究员 Simon Frieder 认为,当涉及到在新的数学证明中挑选不熟悉的概念等任务时,o3-mini 做得「非常好」。但他说,即使是最好的模型「仍然无法与数学家相媲美」。
DeepSeek(全能型)
DeepSeek-R1 于上个月推出,其功能与 o1 相当,但可通过 API 获得,成本仅为 o1 的一小部分。
它还与 OpenAI 的模型不同,因为它是开源的,这意味着虽然它的训练数据尚未发布,但任何人都可以下载底层模型并根据他们的特定研究项目进行定制。
运行完整模型需要访问强大的计算芯片,而许多学者都缺乏这一点。但是,香港中文大学(深圳)的计算机科学家 Benyou Wang 等研究人员正在创建可以在单台机器上运行或训练的版本。近期多种不同版本的本地版已经允许用户自行部署。
DeepSeek-R1 有一些缺点。它有一个特别长的「思考 」过程,这减慢了它的速度,使其在查找信息或头脑风暴时反应速度较慢。
Llama(主力)
长期以来,Llama 一直是研究界的首选 LLM。2023 年,Meta AI 在加利福尼亚州门洛帕克首次发布了一系列开放重量级模型,仅通过开放科学平台 Hugging Face 的下载量就已超过 6 亿次。
研究人员认为,在处理专有或受保护的数据时,能够在个人或机构服务器上运行 LLM 至关重要,以避免敏感信息被反馈给其他用户或开发人员。
研究人员以 Llama 的模型为基础,制作了预测材料晶体结构的 LLM,并模拟量子计算机的输出。北卡罗来纳大学教堂山分校 (University of North Carolina at Chapel Hill) 的机器学习科学家 Tianlong Chen 表示,Llama 非常适合模拟量子计算机,因为它相对容易适应专门的量子语言。
但 Llama 需要用户请求访问它的权限,这对某些人来说是一个小摩擦点。因此,其他开放模型,例如由西雅图艾伦人工智能研究所开发的 OLMo,或由总部位于杭州的中国公司阿里云构建的 Qwen,现在通常是研究的首选。DeepSeek 的高效底层 V3 模型也是构建科学模型的竞争对手基础。
此外,还有更多可供研究者使用的模型与架构。对此有需求的读者可以前往此文以获取更详细的推荐。
原文链接:https://www.nature.com/articles/d41586-025-00437-0