AI 网关对决:Higress 与 OneAPI 的功能对比

什么是 AI 网关? AI 网关旨在统一管理与各种大型语言模型(LLMs)的交互。 通过提供单一入口点,它解决了使用来自不同供应商的多个 AI 模型所带来的复杂性问题。

什么是 AI 网关?

AI 网关旨在统一管理与各种大型语言模型(LLMs)的交互。通过提供单一入口点,它解决了使用来自不同供应商的多个 AI 模型所带来的复杂性问题。这不仅简化了访问流程,提高了系统稳定性,还降低了成本,并灵活地利用了不同模型的优势。

什么是 OneAPI?

OneAPI 是一个开源的 LLM API 管理 & 分发系统,可以帮助统一管理和转发各类大语言模型(如 DeepSeek 等)的 API 请求。它提供了一个兼容 OpenAI API 格式的统一接口,让用户能够方便地切换和管理不同的 AI 模型服务,同时支持令牌管理、负载均衡等功能。

什么是 Higress?

Higress 是一款云原生 API 网关,内核基于 Istio 和 Envoy,可以用 Go/Rust/JS 等编写 Wasm 插件,提供了数十个现成的通用插件。Higress 在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。阿里云基于 Higress 构建了云原生 API 网关产品,为大量企业客户提供 99.99% 的网关高可用保障服务能力。

Higress 同时也能够作为 AI 网关,通过统一的协议对接国内外所有 LLM 模型厂商,同时具备丰富的 AI 可观测、多模型负载均衡/fallback、AI token 流控、AI 缓存等能力。

图片图片

Higress 和 OneAPI 的对比

下面的表格从多个维度对比了 OneAPI 和 Higress 之前的差异:

差异项

OneAPI

Higress

核心功能

AI 网关

具有 AI 网关功能的 API 网关

维护方式

由个人维护的项目

由阿里云 API 网关团队维护的项目

系统安全

易受安全漏洞影响,如 DockerHub 镜像被注入加密挖矿脚本

商业版由阿里云托管,无此风险;开源版本集成了阿里云容器镜像服务以存储镜像,提供安全扫描和自动阻止风险镜像的功能

内容安全

通过集成阿里云内容安全实现实时内容过滤,同时支持数据脱敏等功能

模型管理

只有模型和 API Key 配置管理

支持 API Key 管理(多密钥轮询、屏蔽不可用密钥)、消费者管理(API Key 二级分发、访问控制)、兜底模型以及模型灰度发布。

可观测性

提供监控仪表板用于查看模型及消费者令牌消耗和调用延迟。提供全面的可观测性,包括内容安全、速率限制和缓存的监控。

可扩展性

插件市场提供了现成插件(提示词模板、AI缓存、数据脱敏、内容安全),支持自定义插件开发及热加载。

云集成

可以和阿里云上的各类云产品集成,例如借助 SLS 实现 AI 数据分析能力

Higress 作为 AI 网关的优势

Higress 作为 AI 网关,具备以下几大优势:

  • 统一管理与灵活扩展:Higress 提供一个集中的入口,能够统一管理多个大型语言模型(LLMs),简化了与不同供应商模型的接入和配置,支持灵活扩展,方便在需求变化时加入新的模型。
  • 高可用性与稳定性:Higress 通过自动故障转移机制,确保当某个 AI 模型服务不可用时,能够快速切换到备选模型,保持系统的高可用性和稳定性,极大减少了服务中断的风险。
  • AI 缓存:Higress 支持将 AI 模型的结果缓存在 Elasticsearch、Redis、Weaviate 等数据库中。这样不仅可以在后续处理相似问题的请求时快速返回结果,还能减少 LLM 调用的费用开销。
  • 意图识别:Higress 能根据用户需求智能地选择最合适的 LLM,从而在不同场景下提供最佳响应。
  • API Key 治理:支持配置 API Key 池实现多 Key 均衡,API Key 被限流等不可用情况会自动屏蔽,并在可用时自动恢复。
  • 消费者管理:可以通过创建消费者,实现 API Key 的二次分租,无需将真正的供应商 API Key 暴露给调用方,并且可以精细化管理不同消费者的调用权限和调用额度。
  • 强大的可观测性:Higress 提供关于模型性能、令牌使用情况及安全相关指标的详细洞察,帮助团队全面监控系统健康状况。
  • 云原生集成:与阿里云服务紧密集成,Higress 提供了托管的云原生 API 网关选项,简化了云环境中的部署与管理。
  • 内容安全:Higress 集成了阿里云内容安全技术,为 AI 内容提供强大的安全保障。

快速体验 Higress AI 网关

Higress AI 网关支持一行命令安装:

curl -sS https://higress.cn/ai-gateway/install.sh | bash

执行完命令后可以通过命令行初始化配置,可以看到,Higress 的 AI 网关能力支持对接国内外所有主流 LLM 模型供应商:

图片图片

也可以选择跳过这个步骤,到 Higress 的控制台进行配置对应供应商的 API Key:

图片图片

配置后,就可以直接使用了,例如使用 OpenAI 的 SDK:

import json
from openai import OpenAI

client = OpenAI(
    api_key=xxxxx, # 👉 可以通过 Higress 生成消费者 Key 实现 API Key 的二次分租
    base_url="http://127.0.0.1:8080/v1"
)

completion = client.chat.completions.create(
    model="deepseek-chat", # 👉 可以填写任意模型名称,Higress 会根据模型名称路由到对应的 LLM 供应商
    messages=[
        {"role": "user", "content": "你好"}
    ],
    stream=True
)

for chunk in completion:
    print(chunk.choices[0].delta)

可以在监控面板看到每个模型,以及每个消费者的 token 消耗情况以及调用延时:

图片图片

参考链接

  • Higress:https://github.com/alibaba/higress
  • OneAPI:https://github.com/songquanpeng/one-api

相关资讯

汽车网关性能新标杆,芯驰科技发布G9系列最新旗舰产品

7月28日,领先的车规芯片企业芯驰科技发布网关芯片“网之芯”G9系列的最新旗舰产品G9H,面向下一代高性能中央网关、车载计算单元、跨域控制器等应用场景。G9H在保留高安全性和高可靠性的同时,显著提升车内数据交换和处理能力,助力汽车电子电气架构向域控和中央计算的升级。面向未来的高性能网关处理器G9H基于芯驰高性能高可靠车规处理器平台设计,采用台积电16纳米车规工艺,应用处理器部分配备6个1.8GHz主频的ARM Cortex-A55 CPU,用于运行Linux/QNX等复杂操作系统,并可在此基础上支持Adaptive

你的LLM评估方法过时了吗?这三个范式转变不容错过

在我的职业生涯中,我一直致力于为机器学习系统打造评估体系。 在担任 Quora 数据科学部门负责人时,我们为新闻源排序、广告投放、内容审查等构建了评估机制。 在 Waymo,我们团队为自动驾驶汽车开发了评估标准。

NeurIPS 2024 | 用LLM探寻隐秘的因果世界

因果发现的现实挑战:稀缺的高级变量寻找并分析因果关系是科学研究中的重要一环,而现有的因果发现算法依赖由专家预先定义的高级变量。 现实场景中的原始数据往往是图片、文本等高维非结构化数据, 结构化的高级变量是十分稀缺的,导致现有的因果发现和学习算法难以用于至更广泛的数据。 因此,香港浸会大学与MBZUAI、卡内基梅隆大学、香港中文大学、悉尼大学以及墨尔本大学合作发表论文《Discovery of the Hidden World with Large Language Models》,提出了一个名为 COAT 的新型框架,旨在利用大型语言模型和因果发现方法的优势,突破传统因果发现方法的局限性,更有效地在现实世界中定义高级变量、理解因果关系。