挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

正如瑞斯福兹魔杖缔造了诸如邓布利多在内的历代非凡魔法师的传奇,具有巨大潜能的传统大型言语模型,在经过代码语料的预训练 / 精调后,掌握了更超出本源的实行力。具体来说,进阶版的大模型在编写代码、更强推理、自决援引实行接口、自决完善等方面都获得了晋升,这将为它作为 AI 智能体、实行下游任意时方方面面带来增益。近日,伊利诺伊大学厄巴纳 - 香槟分校(UIUC)的研讨团队发布了一项重要综述。论文链接: (Code)如何赋予大型言语模型(LLMs)及其基于此的智能体(Intelligent Agents)强大的才智。其中,

正如瑞斯福兹魔杖缔造了诸如邓布利多在内的历代非凡魔法师的传奇,具有巨大潜能的传统大型言语模型,在经过代码语料的预训练 / 精调后,掌握了更超出本源的实行力。

具体来说,进阶版的大模型在编写代码、更强推理、自决援引实行接口、自决完善等方面都获得了晋升,这将为它作为 AI 智能体、实行下游任意时方方面面带来增益。

近日,伊利诺伊大学厄巴纳 – 香槟分校(UIUC)的研讨团队发布了一项重要综述。

挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

论文链接: https://arxiv.org/abs/2401.00812

这篇综述探讨了代码(Code)如何赋予大型言语模型(LLMs)及其基于此的智能体(Intelligent Agents)强大的才智。挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

其中,code 特指机器可实行且人类可读的形式言语,如编程言语、预定义函数集等。类似于我们指导 LLMs 理解 / 生成传统自然言语,让 LLMs 精通 code,仅需要将相同的言语建模训练目标使用在 code 数据上。

和传统言语模型不同,当今通用的 LLMs,如 Llama2、GPT4,不仅在体量上显著晋升,并且它们经历了独立于典型自然言语语料的 code 语料训练。Code 具有标准化的语法、逻辑一致性、抽象性和模块化特性,并且能将高层次的目标转化为可实行的步调,使之成为联接人类和计算机的理想媒介。

如图 2 所示,在本篇综述中,研讨职员通过辑录相关工作,详细分析阐明了将 code 纳入 LLMs 训练数据的各种优点。

挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

具体来说,研讨职员观察到 code 的独特属性有助于:

1. 增强 LLMs 的 code 编写才智、推理才智,以及结构化信息处理才智,使其能够使用于更复杂的自然言语任意;

2. 引导 LLMs 产生结构化的、精确的中间步调,这些步调可以通过函数调用与外部实行端联接;

3. 利用 code 的编译、实行情况,为模型自决矫正提供多样化反应。

此外,研讨职员也深察了这些由 code 赋予的 LLMs 的优化项,如何强化它们作 Intelligent Agent 的决议中心,理解指令、分解目标、规划和实行行动以及从反应中矫正的一系列才智。

如图 3 所示,在第一个部分中,研讨职员发现 LLMs 在 code 上的预训练,已将 LLMs 的任意范围扩展到自然言语之外。这些模型能够支持多样化的使用,包括为数学理论生成 code、常规编程任意,以及数据检索等。Code 需要产生逻辑上连贯、有序的步调序列,这对于有效实行至关重要。此外,code 中每个步调的可实行性允许逐步验证逻辑。在预训练中利用并嵌入这些 code 属性提高了 LLMs 在许多传统自然言语下游任意中的思维链(CoT)表现,验证了它们在复杂推理技能上的矫正。同时,通过对 code 结构化格式的隐式学习,codeLLMs 在常识性结构化推理任意上表现更佳,如与标记言语、HTML 和图表理解相关的任意。

挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

如图 4 所示,将 LLMs 与其他功效端相联接(即通过外部工具和实行模块扩展 LLMs 才智)有助于 LLMs 更准确、可靠地实行任意。

挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

在第二个部分中,如表 1 所示,研讨职员观察到一种普遍趋势:LLMs 通过生成编程言语或利用预定义函数与其他功效端建立联接。这种 “以 code 为中心的范式” 不同于严格在 LLMs 推理机制中硬编码工具调用的刻板做法,它允许 LLMs 动态生成调用实行模块的令牌,具有可调整的参数。

挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

这种范式为 LLMs 与其他功效端的互动提供了一种简单明确的方式,增强了它们使用的灵活性和可扩展性。更为重要的是,它也允许 LLMs 与涵盖多种模态和领域的众多功效端进行互动。通过扩展 LLMs 可访问的功效端的数量和种类,LLMs 能够处理更复杂的任意。

如图 5 所示,将 LLMs 嵌入 code 实行情况可以实现主动化反应和模型自决矫正。LLMs 的表现超出了其训练参数的范围,部分原因是它们能够接纳反应。然而,必须谨慎选择反应,因为嘈杂的提示输入可能会妨碍 LLMs 在下游任意上的表现。此外,由于人力资源代价高昂,反应需要在保持真实性的同时满足主动收集。在第三个部分中,研讨职员发现将 LLMs 嵌入 code 实行情况可以获得满足所有这些标准的反应。

挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

首先,由于 code 实行是确定性的,从实行 code 的结果中获取反应能够直白忠实反映 LLM 实行的任意。此外,code 解释器为 LLMs 提供了一种主动查询内部反应的途径,消除了在利用 LLMs 调试或优化错误 code 时需要昂贵的人工注释的需求。Code 编译与实行情况也允许 LLMs 纳入多样化和全面的外部反应形式,如简单的生成二值的正确和错误评价、稍复杂的对实行结果的自然言语解释,以及各种带有回馈值的排名方法,他们都使得提高性能的方法高度可定制化。

通过分析 code 训练数据集成如何增强 LLMs 才智的各种方式,研讨职员进一步发现,code 赋能 LLMs 的优势在 Intelligent Agent 的研发这项关键的 LLM 使用领域尤为明显。

图 6 显示了一个智能助理的标准工作流程。研讨职员观察到,通过 code 训练在 LLMs 中带来的矫正,也同时一一作用于它们作为智能助理时的实际步调。

挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量

这些步调包括:(1) 增强 IA 在情况感知和规划方面的决议才智, (2) 通过将行动落实于模块化动作原语和高效组织记忆来优化策略实行,以及 (3) 通过从 code 实行情况主动派生的反应优化性能。

总的来说,在本篇综述中,研讨职员分析并阐明了 code 如何赋予 LLMs 强大才智,以及 code 如何协助 LLMs 作为 Intelligent Agents 决议中心工作。

通过全面的文献回顾,研讨职员观察到经过 code 训练后,LLMs 提高了它们的编程技能和推理才智,获得了实现与跨模式和领域的多种功效端的灵活联接才智,以及强化了与 code 实行情况中集成的评估模块进行互动并实现主动自我晋升的才智。

此外,code 训练带来的 LLMs 才智晋升有助于它们作为 Intelligent Agent 在下游使用中的表现,体现于如决议、实行和自我晋升等特定操作步调。回顾以往的研讨之外,研讨职员也提出了该领域的几个挑战,作为未来潜在发展方向的指导要素。

更多细节请参考原文!

给TA打赏
共{{data.count}}人
人已打赏
工程

FATE 2.0版本重磅发布:实现异构联邦学习系统互联互通

2024-1-9 15:43:00

工程

能找神经网络Bug的可视化对象,Nature子刊收录

2024-1-15 10:49:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索