AI的未来是一个巨大的模型,还是多个specialized小模型

简介言语模型在广泛的应用中已被证明是有效的,但最复杂的模型通常是专有的。例如,OpenAI的GPT-4和Anothropic的各种模型不仅昂贵,而且消耗大量能源。与此相比,开源社区已经生产了能够竞争的模型,如Llama3。此外,为特定范畴如法律、医疗或金融义务定制的较小的言语模型,已在性能上超越了它们的专有对手。本文介绍了一种新的办法,采用functional token调整了多个开源模型,每个模型都针对特定义务举行了优化。我们新开发的Octopus v4模型利用functional token智能地将用户查问引导

AI的未来是一个巨大的模型,还是多个specialized小模型

简介

言语模型在广泛的应用中已被证明是有效的,但最复杂的模型通常是专有的。例如,OpenAI的GPT-4和Anothropic的各种模型不仅昂贵,而且消耗大量能源。与此相比,开源社区已经生产了能够竞争的模型,如Llama3。此外,为特定范畴如法律、医疗或金融义务定制的较小的言语模型,已在性能上超越了它们的专有对手。本文介绍了一种新的办法,采用functional token调整了多个开源模型,每个模型都针对特定义务举行了优化。我们新开发的Octopus v4模型利用functional token智能地将用户查问引导至最合适的垂直模型,并重新格式化查问以实现最佳性能。Octopus v4是Octopus v1、v2和v3模型的演化,擅长于选择和参数理解与重组。此外,我们还探索了利用图作为一种多功效数据结构,有效地协调多个开源模型,利用Octopus模型和functional token的能力。通过激活大约 100 亿参数的模型,我们在同级别模型中实现了 74.8 的 SOTA MMLU 分数。

Octopus-V4-3B 是一款先进的开源言语模型,拥有30亿参数,作为 Nexa AI 设想中的言语模型图的主节点。该模型专为 MMLU 基准测试话题定制,能够高效地将用户查问转换成业余模型可以有效解决的格式。它擅长将这些查问正确引导至相应的业余模型,确保精确且有效的查问解决。

📱 紧凑尺寸:Octopus-V4-3B 体积紧凑,使其能在智能设施上高效、迅速地运行。

🐙 准确性:Octopus-V4-3B 利用functional token设计准确地将用户查问映射到业余模型,提高了其精度。

💪 查问重格式化:Octopus-V4-3B 帮助将自然人类言语转换为更业余的格式,改善了查问描述,从而获得更准确的响应。

我们诚邀全球的开发者和技术爱好者参与此开源项目,一起创造一个强大的图言语模型,构建最经济最高效的模型解决方案,并联合所有垂类开源模型一起达到闭源模型的效果。

试用Octopus v4模型:https://huggingface.co/NexaAIDev/Octopus-v4

开源的GitHub: https://github.com/NexaAI/octopus-v4

论文标题:Octopus v4: Graph of language models

论文链接:https://arxiv.org/pdf/2404.19296

引言

大型言语模型(LLMs)的迅速发展彻底革新了自然言语解决范畴,使人工智能零碎能够以惊人的准确度理解和生成类似人类的文本。像GPT-4和Anothropic这样的模型,经过大量数据集训练,能够捕捉到言语、语境和意义的细微差别,因此在不同行业中具有广泛的潜在应用。这些模型在多种子义务中表现出色,例如高精度的言语翻译、情感分析以评估客户意见和监控品牌声誉、利用广泛知识库举行问答以及总结长篇文档和文章。在医疗保健范畴,LLMs能够解决病患数据和医学文献,以支持疾病诊断、治疗规划和药物发现,甚至生成个性化的病人报告。金融行业利用LLMs举行风险评估、欺诈检测和自动化财务报告生成,法律范畴则受益于合同分析、法律研究和文件起草的简化。LLMs在教育范畴也显示出重大潜力,提供个性化学习体验、生成内容并提供即时反馈。随着LLMs的持续进步,它们在各个范畴的影响预计将显著增长,自动化义务、增强决策制定并推动创新。

自Meta在2023年推出Llama3模型及其后续产品Llama2以来,开源大型言语模型(LLMs)的景观显著增长。这一转变催生了众多创新的LLMs,每个模型都以前所未有的速度发布。作为这一动态范畴的关键参与者,这些模型已显著影响自然言语解决。我们突出介绍了最具影响力的开源LLMs,包括Mistral的稀疏专家混合模型Mixtral-8x7B、阿里巴巴云的多言语Qwen1.5系列、Abacus AI的Smaug以及01.AI的Yi模型,专注于数据质量。其他值得注意的模型包括Databricks的精细MoE模型DBRX、Upstage AI的深度扩展SOLAR-10.7B、艾伦人工智能研究所的对齐焦点TULU 2以及合作的OLMo系列、微软的由Evol-Instruct驱动的WizardLM、伯克利的Starling-7B、谷歌DeepMind的以Gemini为灵感的Gemma模型、xAI的Grok以及Deci AI的高效率DeciLM-7B。在2024年4月,我们见证了迄今为止最强大的开源模型,Meta的Llama3,其70B参数版本在Groq上实现了约300代币/秒的印象深刻推理速度。此后不久,更多功效强大的开源设施模型发布,包括微软的3.8亿参数的Phi-3-mini和苹果的OpenELM系列模型,参数范围从10亿到30亿不等。这些多样化的模型适应各种用例,利用户可以根据用例选择最佳模型。

图数据结构已经成为表示各个范畴复杂关系和依赖性的强大工具。在计算机科学中,一个图由一组节点(或顶点)组成,通过边连接,这些边可以是有向的或无向的。这种灵活的结构允许表示线性或表格格式难以捕捉的复杂连接和层次结构。图提供了比其他数据结构更多的优势,包括高效的遍历、模式发现以及能够模拟现实世界的网络。许多著名公司已经利用鉴于图的办法增强了他们的产品和服务。例如,Pinterest利用图结构表示用户、看板和别针之间的关系,实现个性化内容推荐和改善用户互动。同样,像Facebook和LinkedIn这样的社交网络依赖图表表示来模拟用户连接,促进如好友建议和业余网络等功效。在调整开源言语模型的上下文中,图结构可以用来表示不同模型之间的关系、它们的能力和最佳用例。通过将每个言语模型视为图中的一个节点,并根据它们的兼容性、互补特性或义务特定性能建立边,我们可以创建一个用于无缝模型调整、智能查问路由和优化性能的强大框架。

在设施上的AI模型的出现彻底改变了自然言语解决的格局,与传统的鉴于云的办法相比,提供了许多优势。这些模型,例如Google的Gemma2B和Llama7B模型,旨在直接在用户设施上运行,通过在本地解决查问来确保数据隐私,并消除了与远程服务器的网络通信的需要。这种本地解决不仅增强了安全性,还减少了延迟,使实时交互和改善用户体验成为可能。例如Octopus v2、v3等在设施上的AI署理利用这些能力提供智能助理。然而,在设施上的AI的真正潜力在于它与鉴于云的模型的无缝集成,这种“云-在设施上”协作观念的崛起。通过利用在设施上和鉴于云的模型的力量,AI零碎可以实现前所未有的性能、可扩展性和灵活性水平。这种协作允许高效分配计算资源,由在设施上的模型解决较轻和私有义务,而由鉴于云的模型解决更复杂或资源密集的操作。此外,物联网(IoT)在启用此类协作中发挥了关键作用,连接了广泛的设施网络并促进了在设施上和鉴于云的模型之间的数据和洞察交换。在设施上的AI、鉴于云的模型和IoT的调整代表了AI发展的范式转变。这种办法结合了每个组成部分的优势,创建了一个能够适应用户和应用程序多样化需求的协同生态零碎。随着我们继续探索“云-在设施上”协作的潜力,我们可以期待在AI范畴看到重大进展。

在本文中,我们介绍了一种利用言语模型的新框架,通过构建一个以不同垂直言语模型为节点的图。我们利用Octopus v2模型的特性,并将其用作协调器。从单一模型推理到多节点推理的转变在图(1)中展示。

相关事务

图数据格式和图算法已成为计算机科学中的基本研究范畴,应用范围从社会网络分析到推荐零碎和生物信息学。经典图算法,如广度优先搜索(BFS)和深度优先搜索(DFS),已被广泛研究并优化以适应各种图形表示。Dijkstra的最短路径算法及其变体在解决路由问题和在加权图中找到最优路径方面至关重要。PageRank算法,由Google用于网页排名,已革命化信息检索范畴并激发了无数鉴于图的排名技术。最近在图神经网络(GNNs)方面的进展推动了鉴于图的学习的边界,使得解决图结构数据的义务,如节点分类、链接预测和图生成成为可能。这一范畴的前沿研究包括开发更具表达力和效率的GNN架构,如图注意网络(GATs)和图卷积网络(GCNs),它们在各种图相关义务上都取得了最先进的性能。

增强AI署理的functional token,鉴于Octopus系列(v1到v3)的研究,通过利用functional token,扩展了AI署理的能力,并将所有开源模型统一起来。这些早期版本有效地利用了这些令牌来实现高级功效。我们现在研究它们在调整不同开源言语模型中的扩展用途。我们的研究表明,functional token在分类义务中不仅仅是提高精确度,例如选择适当的功效或模型来解决查问。重要的是,它们增强了Octopus模型解释和重塑用户查问为指定功效的最优格式的能力,从而提高性能。functional token与Octopus模型在分类和查问重构方面的能力的协同作用已进一步应用于图结构。在这里,一个关键方面涉及到在节点之间转移信息并选择适当的邻域举行此转移。我们增强的Octopus模型有效地选择最佳邻居,重新结构当前节点的信息,并将优化的信息传输给后续节点。

多署理LLMs标志着AI的关键进化,通过调整多个专门的署理来促进协作解决问题。与传统的单署理LLMs不同,这些多署理零碎从专门范畴的署理中汲取集体智能。这种协作办法为复杂问题提供了更全面的解决方案。多署理LLMs在提供范畴特定的业余知识、增强解决问题的能力以及提供鲁棒性、可靠性和适应性方面表现出色。这些零碎承诺将在医疗保健、金融、教育和客户服务等范畴产生变革性的影响,通过提供定制的业余知识、个性化互动和高效的决策过程。然而,部署多署理LLMs涉及一些挑战,如调整困难、数据共享问题和保持署理之间顺畅协调。正在举行的多署理LLMs研究正在探索跨范畴业余知识和实时协作的可能性,同时考虑伦理方面。此外,我们的论文也受到多署理零碎的启发,采用图架构。通过自连接和通过图遍历顺序解决动作,可以实现如并行函数调用等高级功效,提高其操作效率和可扩展性。

LLMs的规模化法则已经彻底改变了我们对模型大小、数据集大小、计算资源和性能之间关系的理解。这些法则表明,训练在庞大数据集上的较大模型通常表现优于较小的模型。然而,随着LLMs的继续扩展,它们面临与服务器容量和能耗相关的重大挑战,这些挑战限制了它们进一步的扩展。我们提出的架构通过利用分布式计算和节点扩展技术,解决了这些可扩展性问题,实现了几乎无限的节点可扩展性。通过增加更多节点,我们可以创建更强大的言语模型零碎,绕过服务器数量和电源供应的限制。

办法论

本节概述了如何将言语模型作为图中的节点加以调整,并提供了针对实际应用定制的零碎架构的详细信息。此外,还讨论了利用合成数据集对Octopus模型举行训练的策略。我们也会强调这种言语模型图在生产环境中的零碎设计。

3.1 Octopus v2提取的用于分类的言语模型

在Octopus v2的论文中,我们介绍了一种名为functional token的分类办法。Octopus v2模型有效地解决了这一义务:

𝑃(𝑓,params∣𝑞)

其中 𝑓 表示从集合 𝐹 中选择,params 代表从查问 𝑞 中重构的信息。本文演示了这种办法在函数调用义务中的应用。此外,functional token还可以适应其他需要从指定池中选择最优选项并重新格式化查问以向后续节点传递信息的类似场景。在涉及预定义图的典型用例中,每个节点,代表一个言语模型,都有固定数量的邻居。为了举行言语模型推断,选择最佳的相邻节点,并将信息从当前节点传递到下一个节点。因此,Octopus v2模型非常适合解决这一问题,如Octopus v2论文中所记录的,显示了快速执行和高精度。

3.2 图中的言语模型作为节点

AI的未来是一个巨大的模型,还是多个specialized小模型考虑一个定义为:

𝐺=(𝑁,𝐸)

其中 𝑁 代表图中的各种节点,𝐸 代表连接这些节点的边。节点分为两种类型:主节点 𝑁𝑚,它们通过将查问定向到合适的事务节点 𝑁𝑤 并传递执行义务所需的信息来协调查问;事务节点接收来自主节点的信息并执行所需的义务,利用Octopus模型来促进进一步的协调。节点信息传输过程如图所示。为了解决用户查问 𝑞 并生成响应 𝑦,我们将概率建模为:

𝑃(𝑦∣𝑞)=𝑃(𝑦∣𝑞;𝐺)

对于只涉及一个事务节点的单步义务,该过程可以定义为:

𝑃(𝑦∣𝑞;𝐺)=𝑃(𝑁𝑤,𝑞ℎ∣𝑞;𝑁𝑚)×𝑃(𝑦∣𝑞ℎ;𝑁𝑤)

这里,𝑃(𝑁𝑤,𝑞ℎ∣𝑞;𝑁𝑚) 利用Octopus v2模型为 𝑁𝑚 选择最佳的相邻事务节点并重新格式化查问为 𝑞ℎ,这是重构的查问。这个表达式是一个典型的问题,可以由Octopus模型解决,其结构与方程相同。概率 𝑃(𝑦∣𝑞ℎ;𝑁𝑤) 由位于事务节点的言语模型计算。

对于多步义务,通常在多署理事务流中,该过程涉及多个节点之间的几次顺序交互,如下:

𝑃(𝑦∣𝑞;𝐺)=∏𝑖=0𝑘−1𝑃(𝑁𝑤𝑖,𝑞ℎ𝑖∣𝑞;𝑁𝑚𝑖)×𝑃(𝑦∣𝑞ℎ𝑖;𝑁𝑤𝑖)

这个公式将单步义务扩展为多步骤,每一步可能由不同的事务节点解决,由各自的主节点协调。每一步解决查问的一部分并贡献到最终结果,其中 𝑘 表示多署理过程中的步骤或交互次数。这种办法示范了在鉴于图的框架中多个业余署理的协调和执行模式,利用多个专门署理的能力。

3.3 利用图举行多步骤操作的义务规划

AI的未来是一个巨大的模型,还是多个specialized小模型

在多步骤义务规划中,包含多个步骤是必要的。传统上,所有可用功效都列在上下文中并提交给言语模型,随后生成鉴于用户查问的计划。然而,当言语模型,尤其是参数少于10B的模型,尝试解决长功效描述时,这种办法存在局限性。这些模型难以有效把握大量的描述。此外,此办法没有考虑不同功效描述之间的固有相关性。为了应对这些挑战,构建一个图映射各节点(言语模型/署理)之间的相关性提供了一种可行的解决方案。这种鉴于图的办法确保只考虑与特定节点相关的邻近节点,与总功效描述数量相比,显著减少了选择的复杂性。通过利用Octopus v2模型的功效,这种策略提高了效率,使得快速的查问重定向和重格式化成为可能。实际上,我们有两层抽象。首先,对于每个言语模型,我们可以应用functional token使其作为一个单一的AI署理举行单一功效调用。或者,单一节点/言语模型可以是像Llama3或Phi3这样的普通言语模型,能举行问答、编写等。另一层抽象是,我们还可以创建另一个Octopus v3模型来从不同节点中举行选择。这两层抽象在图(3)中展示。

3.4 functional token和数据集收集

类似于Octopus v2中的functional token架构,我们将每个模型概念化为一个独立的功效,利用functional token激活特定模型的利用。这种办法简化了言语模型的功效设计,只需要一个输入参数和一个输出结果。此外,对于特定模型,我们可以在功效的文档字符串中详细说明所需的提示模板。这使得Octopus v4模型能够重新构建原始查问以匹配预期的格式。例如,专门解决法律信息的功效可能被描述如下:

Python def law_gpt(query):"""A specialized language model equipped to handle queries related to legal studies, including international law, jurisprudence, and professional law. This model serves law students, practicing lawyers, and professionals in the legal field needing detailed legal explanations or interpretations. This model also reformats user queries into professional legal language.Parameters:- query (str): A detailed prompt that encapsulates a law-related question or issue. Speak in a professional legal manner.Returns:- str: Comprehensive legal analyses, solutions, or information related to the law query.     """

此外,当我们利用类似于Octopus v2论文中描述的办法构建数据集时。遵循Octopus v2论文中概述的办法,我们可以训练多个functional token以对应于各种自定义言语模型。如在Octopus v2论文中,数据集收集过程涉及利用合成数据来训练functional token。为了更好地适应多样化的查问,提高数据生成过程中的温度可能是有益的。这种调整有助于捕获用户查问中常见的变异性和潜在的格式不一致。

3.5 言语模型图的零碎设计

本节详细说明了复杂图中每个节点代表一个言语模型的零碎架构,利用多个Octopus模型举行协调。在我们准备生产部署时,调整一个负载均衡器以有效管理零碎需求至关重要。下面,我们将零碎划分为几个可管理的组件,强调核心办法:

事务节点部署:每个事务节点 𝑁𝑤 对应一个单独的言语模型。我们建议为这些节点采用无服务器架构,特别推荐利用Kubernetes举行鉴于内存利用和事务负载的强大自动缩放。主节点部署:主节点应利用不超过10B参数的基础模型(我们的实验中利用3B模型),以便在边缘设施上部署。每个事务节点与一个Octopus模型接口,以增强协调。如Octopus v2所示,可以集成一个紧凑的Lora模型以扩展functional token的能力。我们建议利用单一基础模型并补充多个Loras,每个事务节点一个。推荐利用开源的LoraX库来管理这种配置的推理操作。通讯:事务节点和主节点分布在不同设施上,不限于单一设施。因此,互联网连接对于节点之间的数据传输至关重要。虽然主节点可能位于智能设施上,事务节点则托管在云端或其他设施上,结果返回智能设施。为了支持数据缓存需求,包括聊天历史存储,我们推荐利用Redis,一个高性能的内存数据库,促进分布式缓存。

整体零碎设计架构在图(4)中展示。

AI的未来是一个巨大的模型,还是多个specialized小模型

实验

本节详细介绍了我们利用的框架举行的实验,目的是通过多节点协作提高言语模型的性能。我们展示了我们的框架如何利用 MMLU 基准测试评估来提升言语模型的效果。我们采用了17种不同的模型举行 MMLU 义务。接收用户查问后,Octopus v4模型将查问定向到相关的业余模型,然后适当地重新格式化它。以下实验采用了一个简单的图;更复杂的图将在我们的GitHub仓库中提供。并且最终的图需要整个社区的努力。

4.1 业余模型

多义务多言语理解(MMLU)包含57个独特的义务,进一步分为17个调整组,如作者所建议。例如,研究生级别和高中数学义务已被归入更广泛的数学类别。义务分布如下:

STEM:物理、化学、生物、计算机科学、数学、工程;人文学科:历史、哲学、法律;社会科学:政治、文化、经济、地理、心理学;其他:杂项、商业、健康。

业余模型是根据基准得分、人气和用户推荐从 Hugging Face 精选的。并非所有业余义务都有相应的模型;例如,人文学科和社会科学目前尚无专门的模型。尽管如此,Llama3模型,通过定制零碎提示调整,用以模拟业余能力而无需直接微调。以下17个模型要么通过提示特别微调,要么通过提示自定义:

物理:Weyaxi/Einstein-v6.1-Llama3-8B,针对物理数据集举行微调;生物:jondurbin/bagel-8b-v1.0,针对生物数据集举行微调;计算机科学:Llama-3-Smaug-8B,针对各种计算机科学论坛定制;数学:Open-Orca/Mistral-7B-OpenOrca,针对数学举行优化;工程:phi-2-electrical-engineering,针对电气工程数据集举行微调;法律:AdaptLLM/law-chat,针对法律数据集举行微调;健康:AdaptLLM/medicine-chat,针对医疗数据举行优化;心理学、历史、哲学、政治、文化、地理、商业、化学、经济:目前没有可用的业余模型。利用Llama3和CoT技术通过零碎提示模拟业余模型。

AI的未来是一个巨大的模型,还是多个specialized小模型

4.2 MMLU 基准评估

本节介绍了对Octopus v4零碎的基准评估,比较了其性能与其他著名模型利用MMLU基准的表现,以展示我们模型的有效性。在我们的推理零碎中,我们利用两个紧凑的言语模型:3B参数的Octopus v4模型和一个不超过8B参数的另一个事务言语模型。比较展示在图(5)中。推理过程在图(2)中演示。

一个用户查问的例子如下:

查问:告诉我当 x 为 2 时 x^3 的导数结果是什么?

响应:<nexa_4>('确定函数 f(x) = x^3 在 x 等于 2 的点的导数,并在变化率和切线斜率的上下文中解释结果。')<nexa_end>

注意 <nexa_4> 是一个functional token,映射到数学 gpt。

未来事务与讨论

在本节中,我们强调了如何培训业余模型的教程。同时,我们也概述了我们团队的未来计划。

5.1 如何培训垂直模型

为了有效地对大型言语模型举行微调以适应特定范畴的业余知识,首先需要收集大量的高质量、范畴相关的数据。这些数据应包括教科书、研究论文、文章和其他相关材料,充分覆盖模型预期的范畴知识。确保数据多样性、组织良好并体现模型所需的范畴知识是至关重要的。然后,利用这些预解决的范畴特定数据对预训练的大型言语模型举行微调。这一过程调整了模型的参数,使其专注于您选择的范畴,有效地嵌入必要的业余知识。可选地,考虑利用知识蒸馏技术,从更大模型的API中转移洞见到更小、更高效的模型。对于这一微调阶段,我们推荐利用 Hugging Face 提供的 SFT 训练器举行监督微调,随后举行直接优化。

5.2 未来事务

我们当前的 GitHub 项目专注于开发言语模型的图形框架,目前处于起始阶段。我们计划通过调整多种垂直特定模型并加入先进的 Octopus v4 模型来增强这一框架,以多署理能力为特征。未来版本将在此存储库中展示更强大的图形表示。GitHub仓库将由 Nexa AI 小心维护。与更大模型的缩放法则、数据集相比,我们的框架无限制,并且我们可以创建一个大型图。

此外,我们正在开发 Octopus 3.5,一个多模态模型,能够解决视觉、音频和视频数据。后续版本将将这个 AI 署理纳入我们的图形框架。Nexa AI 也旨在为多种垂直范畴开发紧凑、专门化的模型。

给TA打赏
共{{data.count}}人
人已打赏
理论

AI 回答物理学问题,MIT 开发主动绘制材料相图机械进修框架

2024-5-27 15:56:00

理论

登Nature子刊,中科院计算所团队开发CarbonDesign,进行准确且稳健的蛋白质序列安排

2024-5-28 19:22:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索