AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]
开发基于大模型的软件应用,就像指挥一支足球队:组件是能力各异的队员,编排是灵活多变的战术,数据是流转的足球。
Eino 是字节跳动开源的大模型应用开发框架,拥有稳定的内核,灵活的扩展性,完善的工具生态,可靠且易维护,背靠豆包、抖音等应用的丰富实践经验。初次使用 Eino,就像接手一支实力雄厚的足球队,即使教练是初出茅庐的潜力新人,也可以踢出高质量、有内容的比赛。
下面就让我们一起踏上新手上路之旅!
认识队员
Eino 应用的基本构成元素是功能各异的组件,就像足球队由不同位置角色的队员组成:
这些组件抽象代表了固定的输入输出类型、Option 类型和方法签名:
type ChatModel interface { Generate(ctx context.Context, input []*schema.Message, opts ...Option) (*schema.Message, error) Stream(ctx context.Context, input []*schema.Message, opts ...Option) ( *schema.StreamReader[*schema.Message], error) BindTools(tools []*schema.ToolInfo) error }
真正的运行,需要的是具体的组件实现:
Eino 的开发过程中,首先要做的是决定 “我需要使用哪个组件抽象”,再决定 “我需要使用哪个具体组件实现”。就像足球队先决定 “我要上 1 个前锋”,再挑选 “谁来担任这个前锋”。
组件可以像使用任何的 Go interface 一样单独使用。但要想发挥 Eino 这支球队真正的威力,需要多个组件协同编排,成为一个相互联结的整体。
制定战术
在 Eino 编排场景中,每个组件成为了 “节点”(Node),节点之间 1 对 1 的流转关系成为了 “边”(Edge),N 选 1 的流转关系成为了 “分支”(Branch)。基于 Eino 开发的应用,经过对各种组件的灵活编排,就像一支足球队可以采用各种阵型,能够支持无限丰富的业务场景。
足球队的战术千变万化,但却有迹可循,有的注重控球,有的简单直接。对 Eino 而言,针对不同的业务形态,也有更合适的编排方式:
Chain,如简单的 ChatTemplate + ChatModel 的 Chain:
chain, _ := NewChain[map[string]any, *Message]().
AppendChatTemplate(prompt).
AppendChatModel(model).
Compile(ctx)
chain.Invoke(ctx, map[string]any{"query": "what's your name?"})
Graph,如 ReAct Agent:
graph := NewGraph[map[string]any, *schema.Message]() _ = graph.AddChatTemplateNode("node_template", chatTpl)
_ = graph.AddChatModelNode("node_model", chatModel)
_ = graph.AddToolsNode("node_tools", toolsNode)
_ = graph.AddLambdaNode("node_converter", takeOne)
_ = graph.AddEdge(START, "node_template")
_ = graph.AddEdge("node_template", "node_model")
_ = graph.AddBranch("node_model", branch)
_ = graph.AddEdge("node_tools", "node_converter")
_ = graph.AddEdge("node_converter", END)
compiledGraph, err := graph.Compile(ctx)
if err != nil {
return err
}
out, err := r.Invoke(ctx, map[string]any{"query":"Beijing's weather this weekend"})
了解工具
现在想象下你接手的足球队用了一些黑科技,比如:在每个队员接球和出球的瞬间,身上的球衣可以自动的记录接球和出球的速度、角度并传递给场边的服务器,这样比赛结束后,就可以统计出每个队员触球的情况和处理球的时间。
在 Eino 中,每个组件运行的开始和结束,也可以通过 Callbacks 机制拿到输入输出及一些额外信息,处理横切面需求。比如一个简单的打日志能力:
handler := NewHandlerBuilder(). OnStartFn( func (ctx context.Context, info *RunInfo, input CallbackInput) context.Context { log.Printf("onStart, runInfo: % v, input: % v", info, input) return ctx }). OnEndFn( func (ctx context.Context, info *RunInfo, output CallbackOutput) context.Context { log.Printf("onEnd, runInfo: % v, out: % v", info, output) return ctx }). Build() // 注入到 graph 运行中 compiledGraph.Invoke(ctx, input, WithCallbacks(handler))
再想象一下,这个足球队的黑科技不止一种,还可以让教练在比赛前制作 “锦囊” 并藏在球衣里,当队员接球时,这个锦囊就会播放教练事先录制好的妙计,比如 “别犹豫,直接射门!”。
听上去很有趣,但有一个难点:有的锦囊是给全队所有队员的,有的锦囊是只给一类队员(比如所有前锋)的,而有的锦囊甚至是只给单个队员的。如何有效的做到锦囊妙计的分发?
在 Eino 中,类似的问题是 graph 运行过程中 call option 的分发:
// 所有节点都生效的 call option
compiledGraph.Invoke(ctx, input, WithCallbacks(handler)) // 只对特定类型节点生效的 call option
compiledGraph.Invoke(ctx, input, WithChatModelOption(model.WithTemperature(0.5))) // 只对特定节点生效的 call option
compiledGraph.Invoke(ctx, input, WithCallbacks(handler).DesignateNode("node_1"))
发现独门秘笈
现在,想象一下你的球队里有一些明星球员(中场大脑 ChatModel 和锋线尖刀 StreamableTool)身怀绝技,他们踢出的球速度如此之快,甚至出现了残影,看上去就像是把一个完整的足球切成了很多片!
面对这样的 “流式” 足球,对手球员手足无措,不知道该如何接球,但是你的球队的所有队员,都能够完美的接球,要么直接一个片一个片的接收 “流式” 足球并第一时间处理,要么自动的把所有片拼接成完整的足球后再处理。身怀这样的独门秘笈,你的球队具备了面对其他球队的降维打击能力!
在 Eino 中,开发者只需要关注一个组件在 “真实业务场景” 中,是否可以处理流式的输入,以及是否可以生成流式的输出。根据这个真实的场景,具体的组件实现(包括 Lambda Function)就去实现符合这个流式范式的方法:
// ChatModel 实现了 Invoke(输入输出均非流)和 Stream(输入非流,输出流)两个范式 type ChatModel interface { Generate(ctx context.Context, input []*Message, opts ...Option) (*Message, error) Stream(ctx context.Context, input []*Message, opts ...Option) ( *schema.StreamReader[*Message], error) } // Lambda 可以实现任意四种流式范式 // Invoke is the type of the invokable lambda function. type Invoke[I, O, TOption any] func(ctx context.Context, input I, opts ...TOption) ( output O, err error) // Stream is the type of the streamable lambda function. type Stream[I, O, TOption any] func(ctx context.Context, input I, opts ...TOption) (output *schema.StreamReader[O], err error) // Collect is the type of the collectable lambda function. type Collect[I, O, TOption any] func(ctx context.Context, input *schema.StreamReader[I], opts ...TOption) (output O, err error) // Transform is the type of the transformable lambda function. type Transform[I, O, TOption any] func(ctx context.Context, input *schema.StreamReader[I], opts ...TOption) (output *schema.StreamReader[O], err error)
Eino 编排能力会自动做两个重要的事情:
1. 上游是流,但是下游只能接收非流时,自动拼接(Concat)。
2. 上游是非流,但是下游只能接收流时,自动流化(T -> StreamReader [T])。
除此之外,Eino 编排能力还会自动处理流的合并、复制等各种细节,把大模型应用的核心 —— 流处理做到了极致。
一场训练赛 -- Eino 智能助手
好了,现在你已经初步了解了 Eino 这支明星球队的主要能力,是时候通过队员 (组件)、战术 (编排)、工具 (切面、可视化) 来一场训练赛,去亲自体验一下它的强大。
场景设定
Eino 智能助手:根据用户请求,从知识库检索必要的信息并按需调用多种工具,以完成对用户的请求的处理。工具列表如下:
DuckDuckGo:从 DuckDuckGo 搜索互联网信息
EinoTool:获取 Eino 的工程信息,比如仓库链接、文档链接等
GitClone:克隆指定仓库到本地
任务管理 (TaskManager):添加、查看、删除 任务
OpenURL:使用系统的默认应用打开文件、Web 等类型的链接
这里呈现一个 Demo 样例,大家可根据自己的场景,更换自己的知识库和工具,以搭建自己所需的智能助手。
先来一起看看基于 Eino 搭建起来的 Agent 助手能实现什么效果:
构建这个 Eino 智能助手分两步:
Knowledge Indexing(索引知识库):将我们在特定领域沉淀的知识,以分词、向量化等多种手段,构建成索引,以便在接收用户请求时,索引出合适的上下文。本文采用向量化索引来构建知识库。
Eino Agent(Eino 智能助手):根据用户的请求信息以及我们预先构建好的可调用的工具,让 ChatModel 帮我们决策下一步应该执行什么动作或输出最终结果。Tool 的执行结果会再次输入给 ChatModel,让 ChatModel 再一次判断下一步的动作,直至完成用户的请求。
任务工作流
索引知识库 (Knowledge Indexing)
将 Markdown 格式的 Eino 用户手册,以合适的策略进行拆分和向量化,存入到 RedisSearch 的 VectorStore 中,作为 Eino 知识库。
Eino 智能体 (Eino Agent)
根据用户请求,从 Eino 知识库召回信息,采用 ChatTemplate 构建消息,请求 React Agent,视需求循环调用对应工具,直至完成处理用户的请求。
所需工具
在从零开始构建「Eino 智能助手」这个实践场景中,需要下列工具:
索引知识库
示例的仓库路径:https://github.com/cloudwego/eino-examples/tree/main/quickstart/eino_assistant
下文中,采用相对于此目录的相对路径来标识资源位置
构建一个命令行工具,递归遍历指定目录下的所有 Markdown 文件。按照标题将 Markdown 文件内容分成不同的片段,并采用火山云的豆包向量化模型逐个将文本片段进行向量化,存储到 Redis VectorStore 中。
指令行工具目录:cmd/knowledge_indexing
Markdown 文件目录:cmd/knowledge_indexing/eino-dcos
开发「索引知识库」应用时,首先采用 Eino 框架提供的 Goland EinoDev 插件,以可视化拖拽和编排的形式构建 KnowledgeIndexing 的核心应用逻辑,生成代码到 eino_graph/knowledge_indexing 目录。
代码生成后,首先手动将该目录下的各组件的构造方法补充完整,然后在业务场景中,调用 BuildKnowledgeIndexing 方法,构建并使用 Eino Graph 实例。
接下来将逐步介绍,KnowledgeIndexing 的开发过程:
大模型资源创建
火山引擎是字节跳动的云服务平台,可从中注册和调用豆包大模型(有大量免费额度)。
创建 doubao-embedding-large 作为知识库构建时的向量化模型,以及创建 doubao-pro-4k 资源作为 agent 对话时的模型。
「火山引擎在线推理」:https://console.volcengine.com/ark
启动 Redis Stack
本文将使用 Redis 作为 Vector Database,为方便用户构建环境,Docker 的快捷指令如下:
在 eino-examples/quickstart/eino_assistant 提供 docker-compose.yml
在 eino-examples/quickstart/eino_assistant/data 目录下提供了 Redis 的初始知识库
直接用 redis 官方的 redis stack 镜像启动即可
# 切换到 eino_assistant 目录
cd xxx/eino-examples/quickstart/eino_assistant
docker-compose up -d
完成启动后,打开本地的 8001 可进入 redis stack 的 web 界面
在浏览器打开链接:http://127.0.0.1:8001
可视化开发
「Eino 可视化开发」是为了降低 Eino AI 应用开发的学习曲线,提升开发效率。对于熟悉 Eino 的开发者,也可选择跳过「Eino 可视化开发」阶段,直接基于 Eino 的 API 进行全码开发。
1. 安装 EinoDev 插件,并打开 Eino Workflow 功能
Graph name: KnowledgeIndexing
Node trigger mode: Triggered after all predecessor nodes are executed
Input type: document.Source
Import path of input type: github.com/cloudwego/eino/components/document
Output type: [] string
其他置空
2. 按照上文「索引知识库」中的流程说明,从 Eino Workflow 中选择需要使用的组件库,本文需要用到如下组件:
document/loader/file —— 从指定 URI 加载文件,解析成文本内容,以 schema.Document 列表形式返回。
document/transformer/splitter/markdown —— 将从 FileLoader 中加载到的文本内容,进一步拆分成合适的大小,以平衡向量化计算 / 存储的尺寸限制和召回的效果。
indexer/redis —— 将 schema.Document 的原文、索引字段 存储在 Redis Vector Database 中
embedding/ark —— 采用 Ark 平台的向量化模型,对 schema.Document 中的 Content 等内容进行向量化计算
3. 将选中的组件按照预期的拓扑结构进行编排,完成编排后,点击 “生成代码” 到指定目录。
「索引知识库」的代码生成到:eino_assistant/eino/knowledgeindexing
本示例可直接复制 eino/knowledge_indexing.json 中的 Graph Schema,来快速构建示例中的图
4. 按需完善各个组件的构造函数,在构造函数中补充创建组件实例时,需要的配置内容
5. 补充好组件的配置内容后,即可调用 BuildKnowledgeIndexing 方法,在业务场景使用
完善代码
通过可视化开发,生成的 Eino 编排代码,无法保证可直接使用,需要人工阅读和检查下代码的完整性
生成核心函数是 BuildKnowledgeIndexing (),用户可在需要的地方调用此方法,创建实例进行使用
在「索引知识库」的场景下,需要将 BuildKnowledgeIndexing 封装成一个指令,从环境变量中读取模型配置等信息,初始化 BuildKnowledgeIndexing 的配置内容,扫描指定目录下的 Markdown 文件,执行对 Markdown 进行索引和存储的操作。
详细代码可查看:cmd/knowledgeindexing/main.go
运行
PS: 示例项目中,已经内置了 eino 的一部分文档向量化到 redis 中
1. 在 .env 文件中按照注释说明,获取并填写 ARK_EMBEDDING_MODEL 和 ARK_API_KEY 的值,按如下指令,运行 KnowledgeIndexing 指令
cd xxx/eino-examples/quickstart/eino_assistant # 进入 eino assistant 的 example 中
# 修改 .env 中所需的环境变量 (大模型信息、trace 平台信息)
source .env
# 因示例的Markdown文件存放在 cmd/knowledgeindexing/eino-docs 目录,代码中指定了相对路径 eino-docs,所以需在 cmd/knowledgeindexing 运行指令
cd cmd/knowledgeindexing
go run main.go
2. 执行运行成功后,即完成 Eino 知识库的构建,可在 Redis Web UI 中看到向量化之后的内容
在浏览器打开链接:http://127.0.0.1:8001
Eino 智能体
示例的仓库路径:https://github.com/cloudwego/eino-examples/tree/main/quickstart/eino_assistant
下文中,采用相对于此目录的相对路径来标识资源位置
构建一个基于从 Redis VectorStore 中召回的 Eino 知识回答用户问题,帮用户执行某些操作的 ReAct Agent,即典型的 RAG ReAct Agent。可根据对话上下文,自动帮用户记录任务、Clone 仓库,打开链接等。
大模型资源创建
继续使用「索引知识库」章节中创建的 doubao-embedding-large 和 doubao-pro-4k
启动 RedisSearch
继续使用「索引知识库」章节中启动的 Redis Stack
可视化开发
1. 打开 EinoDev 插件,进入到 Eino Workflow 页面,新建一张画布
Graph Name: EinoAgent
Node Trigger Mode: Triggered after all predecessor nodes are executed
Input Type Name: *UserMessage
Input Package Path: ""
Output Type Name: *schema.Message
Output Import Path: github.com/cloudwego/eino/schema
其他置空
2. 按照上文「Eino 智能体」中的流程说明,从 Eino Workflow 中选择需要使用的组件库,本文需要用到如下组件:
lambda: 将开发者任意的函数 func (ctx context.Context, input I) (output O, err error),转换成可被编排的节点,在 EinoAgent 中,有两个转换场景:
(1)将 *UserMessage 消息转换成 ChatTemplate 节点的 map [string] any
(2)将 *UserMessage 转换成 RedisRetriever 的输入 query
retriever/redis —— 根据用户 Query 从 Redis Vector Database 根据语义相关性,召回和 Query 相关的上下文,以 schema.Document List 的形式返回。
prompt/chatTemplate —— 通过字符串字面量构建 Prompt 模板,支持 文本替换符 和 消息替换符,将输入的任意 map [string] any,转换成可直接输入给模型的 Message List。
flow/agent/react —— 基于开发者提供的 ChatModel 和 可调用的工具集,针对用户的问题,自动决策下一步的 Action,直至能够产生最终的回答。
model/ark —— Ark 平台提供的能够进行对话文本补全的大模型,例如豆包模型。作为 ReAct Agent 的依赖注入。
可调用的工具列表——互联网搜索工具 (DuckDuckGo)、EinoTool、GitClone、任务管理 (TaskManager)、 OpenURL
3. 将选中的组件按照预期的拓扑结构进行编排,完成编排后,点击 “生成代码” 到指定目录。
本示例中,「Eino 智能体」的代码生成到:eino/einoagent
本示例可直接复制 eino/eino_agent.json 中的 Graph Schema,来快速构建示例中的图
4. 按需完善各个组件的构造函数,在构造函数中补充创建组件实例时,需要的配置内容
5. 补充好组件的配置内容后,即可调用 BuildEinoAgent 方法,在业务场景使用
完善代码
在「Eino 智能体」的场景下,BuildEinoAgent 构建的 Graph 实例可做到:根据用户请求和对话历史,从 Eino 知识库中召回上下文, 然后结合可调用的工具列表,将 ChatModel 循环决策下一步是调用工具或输出最终结果。
下图即是对生成的 BuildEinoAgent 函数的应用,将 Eino Agent 封装成 HTTP 服务接口:
运行
1. 在 .env 文件中按照注释说明,获取并填写对应各变量的值,按如下指令,启动 Eino Agent Server
cd eino-examples/eino_assistant # 进入 eino assistant 的 example 中
# 修改 .env 中所需的环境变量 (大模型信息、trace 平台信息)
source .env
# 为了使用 data 目录,需要在 eino_assistant 目录下执行指令
go run cmd/einoagent/*.go
2. 启动后可访问如下链接,打开 Eino Agent Web
Eino Agent Web:http://127.0.0.1:8080/agent/
观测 (可选)
如果在运行时,在 .env 文件中指定了 LANGFUSE_PUBLIC_KEY 和 LANGFUSE_SECRET_KEY,便可在 Langfuse 平台中,登录对应的账号,查看请求的 Trace 详情。
相关链接:
项目地址:https://github.com/cloudwego/eino,https://github.com/cloudwego/eino-ext
Eino 用户手册:https://www.cloudwego.io/zh/docs/eino/
项目官网:https://www.cloudwego.io