通过Nodejs快速构建一个集成多模型的后端AI服务
通过Nodejs快速构建一个集成多模型的后端AI服务
1. 环境准备与项目初始化
首先确保已安装Node.js 18或更高版本。创建一个新目录并初始化项目:
mkdir taotoken-ai-service && cd taotoken-ai-service npm init -y npm install express openai dotenv在项目根目录创建.env文件用于存储API密钥:
TAOTOKEN_API_KEY=your_api_key_here2. 配置OpenAI客户端连接Taotoken
创建src/taotokenClient.js文件,配置基础客户端:
import OpenAI from "openai"; import dotenv from "dotenv"; dotenv.config(); const client = new OpenAI({ apiKey: process.env.TAOTOKEN_API_KEY, baseURL: "https://taotoken.net/api", }); export default client;关键点说明:
baseURL必须设置为https://taotoken.net/api(不带/v1后缀)- API密钥通过环境变量注入,避免硬编码
- 客户端实例可复用,建议在应用启动时初始化
3. 实现Express路由处理
创建src/server.js文件实现核心逻辑:
import express from "express"; import client from "./taotokenClient.js"; const app = express(); app.use(express.json()); app.post("/api/chat", async (req, res) => { try { const { model = "claude-sonnet-4-6", messages } = req.body; const completion = await client.chat.completions.create({ model, messages, }); res.json({ content: completion.choices[0]?.message?.content, model_used: model, tokens: completion.usage?.total_tokens }); } catch (error) { console.error("API Error:", error); res.status(500).json({ error: error.message }); } }); const PORT = process.env.PORT || 3000; app.listen(PORT, () => { console.log(`Server running on port ${PORT}`); });4. 测试与模型切换验证
启动服务后,可通过curl测试不同模型:
curl -X POST http://localhost:3000/api/chat \ -H "Content-Type: application/json" \ -d '{ "model": "claude-haiku-4-8", "messages": [{"role": "user", "content": "解释量子计算基础"}] }'可用模型ID可在Taotoken模型广场查看,常见格式如:
claude-sonnet-4-6claude-haiku-4-8gpt-4-turbo-preview
5. 生产环境注意事项
- 添加请求验证中间件,防止未授权访问
- 实现速率限制,避免突发流量导致配额耗尽
- 建议添加响应缓存层,对相同输入返回缓存结果
- 完整的错误处理应区分Taotoken API错误与网络错误
Taotoken平台提供了实时用量监控和告警功能,可在控制台查看各模型调用情况。
