当前位置: 首页 > news >正文

解析:One-API 与 New-API 核心原理

One-API 与 New-API 都是用于统一管理和分发大模型API的工具,但其设计理念、核心架构和功能侧重点存在显著差异。下面将详细解析它们的工作原理,并进行对比。

一、One-API 的工作原理

One-API 的工作原理可以概括为:作为一个统一的API网关,它通过“适配器模式”将不同厂商的大模型API协议,标准化为OpenAI API格式,并在此基础上实现智能的路由、分发与管理。One-API 的核心是一个API网关与协议转换器。它的工作原理可以概括为“接收标准请求 -> 匹配并转发 -> 转换协议 -> 返回标准响应”的流程。

第一,统一入口与认证:客户端(如ChatGPT Next Web、FastGPT)使用一个从One-API获取的令牌(Token),向One-API的服务地址发起请求。这个请求的格式完全遵循OpenAI API标准

第二,模型匹配与渠道选择:One-API接收到请求后,会解析请求中的model参数(例如gpt-3.5-turbo)。系统会在后台配置的“渠道”中,寻找模型名称完全匹配的渠道进行转发。一个“渠道”对应一个真实AI服务商(如OpenAI、百度、阿里)的API密钥。如果同一模型对应多个渠道,系统默认会在同优先级中随机选择一个。

第三,协议转换(适配器模式):这是One-API实现多模型兼容的核心技术。系统根据渠道类型,调用对应的适配器(Adaptor)。每个适配器(如openai.Adaptorali.Adaptor)都封装了将标准OpenAI格式的请求和响应,与目标厂商API特有格式进行相互转换的逻辑。这使得开发者无需关心底层不同API的差异。

第四,请求中继与返回:适配器将转换后的请求发送给真正的AI服务商API地址,收到响应后,再转换回OpenAI格式,最终返回给最初的客户端。因此,对于客户端而言,它始终是在与一个“标准的OpenAI服务”进行交互。

二、New-API 的工作原理与核心增强

New-API 是基于One-API的二次开发版本,继承了其核心的网关和适配器架构,但在功能、管理和企业化支持上进行了大幅扩展。

其整体架构同样分为两层:对外提供统一AI模型接口的/v1/*中继层,以及负责系统配置和运营的/api/*管理后台

中继层负责请求的路由、认证、协议转换和转发,这与One-API类似。管理后台则提供了更强大的控制能力。

New-API的主要增强体现在以下几个方面:

  1. 更丰富的模型与功能支持:除了支持GPT、Claude、Gemini等主流大模型,New-API还宣称支持Midjourney、Suno等多模态模型,并提供了重排序(Rerank)等高级功能接口。
  2. 企业级管理与运营功能
    • 权限与组织管理:提供了基于RBAC(角色权限控制)的精细化权限系统,支持组织架构管理和团队资源分配。
    • 支付与商业化:集成了在线支付(如支付宝、微信支付)功能,支持额度充值,这是原版One-API不具备的。
    • 监控与数据分析:提供了更完善的实时监控、日志审计和用量统计仪表盘,便于运营决策。

三、One-API 与 New-API 的主要区别

综合来看,两者的主要区别如下:

功能维度One-API (原版)New-API (二次开发版)
核心定位轻量、专注的API统一网关与协议转换器功能全面的企业级AI接口管理与商业化平台
多模型支持支持国内外数十种主流大语言模型(LLM)。在LLM基础上,扩展支持图像、音频生成等多模态模型(如Midjourney)。
核心工作原理基于适配器模式进行协议转换和请求中继。继承并优化了适配器模式,架构上明确区分中继层(/v1/*)管理后台(/api/*)
企业级功能提供基础的令牌、渠道、配额管理和日志功能。提供RBAC权限系统、组织管理、在线支付、实时监控仪表盘等深度企业功能。
部署与使用单可执行文件,Docker一键部署,开箱即用。同样提供Docker一键部署,但管理界面(UI)经过重新设计。
适用场景适合开发者、研究团队或个人项目快速集成和管理多个大模型API,简化开发流程。适合需要构建商业化AI服务、进行精细化的团队资源管理和成本控制的企业或SaaS提供商。

总结来说,One-API更像一个精巧的“转换插头”,解决的是让不同形状的接口(各种大模型API)都能插到同一个插座(OpenAI标准)上的问题。而New-API在此基础上,建造了一个功能齐全的“智能配电箱”,不仅管理插头,还负责计费、监控每个插座的用电量、分配不同房间的电力额度,并支持更多种类的电器(多模态模型)。选择哪一个取决于用户的需求是更偏向于技术集成,还是更偏向于运营与商业化。

二 开源 One-API 的主流落地案例

统一网关与多供应商路由:在一个实例中同时接入OpenAI、Azure、Anthropic、Google Gemini、智谱 ChatGLM、百度文心一言、阿里通义千问、字节豆包、腾讯混元、DeepSeek、Ollama等,使用OpenAI 兼容的/v1/chat/completions 统一调用;结合渠道负载均衡、失败自动重试、令牌/IP/模型权限实现稳定分发与成本控制。

企业内网合规访问与代理:通过渠道代理地址多机部署打通内外网策略,集中管理密钥与配额,对外仅暴露 One-API 网关;可按用户分组/渠道分组设置倍率与权限,满足审计与分账需求。

多租户分发与计费运营:启用兑换码用户邀请奖励公告/充值链接额度明细与多币种(USD)展示等,面向团队或外部开发者提供按量计费/配额能力,配合系统访问令牌做二次集成与自动化运维。

模型重定向与灰度 A/B:通过模型映射将请求从昂贵模型透明切换到性价比更高的模型(如将 gpt-4 映射至 gpt-4-turbo),在不改客户端代码的前提下完成灰度、回滚与成本优化

生态客户端直连:客户端(如Cherry Studio等)直接使用One-API 生成的令牌按 OpenAI 规范调用,后台可指定渠道优先级/权重并观测延迟与余额,实现“一套客户端,多模型切换”

http://www.jsqmd.com/news/115835/

相关文章:

  • 模板和策略模式的区别
  • 好友圈模块 Cordova 与 OpenHarmony 混合开发实战
  • 学Simulink——机器人控制场景实例:基于Simulink的SCARA机械臂关节空间PD控制仿真
  • 第4章 运算符
  • 工厂模式和抽象工厂模式的区别
  • 洞察:MCP与Function Calling区别
  • 一文搞懂DNAT与SNAT:内网外网通信的“流量翻译官”
  • 3D打印与低压灌注硅胶复模小批量零件生产制造
  • 快!太快了!一键生成!一键导出!微信自动统计数据报表来了!
  • 抽象工厂
  • 对比:字节DeerFlow与阿里DeepResearch
  • 电路板维修
  • 设计模式的概念
  • 【后端开发笔记】JVM底层原理-垃圾回收篇 - 指南
  • 备份恢复模块 - Cordova与OpenHarmony混合开发实战
  • 第2章 变量和基本类型
  • 基于记忆增强网络的语言模型推理优化
  • 对比:Qwen-VL与传统的CNN在图像处理应用
  • 线程五种状态
  • 导入导出模块 - Cordova与OpenHarmony混合开发实战
  • 【硬件设计】DC12V输入的防护+滤波设计
  • 洞察:阿里通义DeepResearch 技术
  • 年前“催婚大作战”,用“技术思维”解决婚恋问题
  • 160. 相交链表
  • insert/update 注入
  • Matlab BP分类 设计神经网络 输入层,隐含层,输出层 可以应用于故障诊断 故障分类
  • 数据采集个人博客——途知旅行助手路径规划算法选择与api调用实现
  • 红黑树
  • 账户增删改查与余额统计 Cordova 与 OpenHarmony 混合开发实战
  • 推荐分享 - Cordova 与 OpenHarmony 混合开发实战