白嫖党狂喜!OpenClaw 免费模型自动测速插件,9大平台自动选最快的
tags: [OpenClaw, AI, LLM, 免费模型, 插件, 开源]
先说结论:如果你用 OpenClaw,这个叫 Free Optimizer 的插件值得装上试试。
地址:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer
我平时喜欢折腾各种 AI 本地部署和网关工具,OpenClaw 算是我目前在用的消息网关(把各种聊天软件和 AI 模型连起来)。但它有一个痛点——我想用免费的模型,但免费模型分布在十几个平台上,有的快有的慢,有的今天能用到明天就限流了。手动切来切去特别烦。
这周逛 GitHub 的时候发现有人写了一个 OpenClaw 插件,叫Free Optimizer,专门干这个事。
它是干什么的
一句话:自动发现 9大平台的免费模型,实时测速,每次聊天自动切换到当前最快那个。
装上之后你在 OpenClaw 里设model: free-opt/auto,剩下的它全自动。不用管哪个平台今天正常、哪个超时——插件每小时跑一次全面测速,把你的模型排名更新一遍,下次聊天自动走排名第一的。
支持哪些平台
目前它支持 9个平台:
| 平台 | 典型模型 | 国内用户 |
|---|---|---|
| OpenRouter | DeepSeek R1, Llama 4, Qwen3 | ✅ 直连 |
| NVIDIA NIM | Llama 3.3 70B, Kimi K2.5 | ✅ 直连 |
| Cloudflare | Llama 3.2 1B/3B | ✅ 直连 |
| GitHub Models | GPT-4o Mini, DeepSeek R1 | ✅ 直连 |
| Gemini 2.5 Pro/Flash | ❌ 需要代理 | |
| Groq | Llama 3.3 70B | ❌ 需要代理 |
| Cerebras | Llama 3.3 70B | ❌ 需要代理 |
| Mistral | Mistral Large, Codestral | ❌ 需要代理 |
| HuggingFace | 各种开源模型 | ❌ 需要代理 |
国内用户只配前三个就能用得挺好,不需要任何代理工具。
实测效果
我在自己的服务器上跑了一轮测试,这是实际排名:
| 排名 | 模型 | 延迟 | 质量 |
|---|---|---|---|
| 🥇 | Cloudflare Llama 3.2 32B | 444ms | ★★★★★ |
| 🥈 | NVIDIA Llama 3.3 70B | 692ms | ★★★★★ |
| 🥉 | GitHub DeepSeek R1 | 1123ms | ★★★★★ |
Cloudflare 的小模型只有 32B 参数,但胜在延迟极低,简单对话完全够用。如果要推理能力强的,NVIDIA 的 70B 模型也只花了不到 700ms,非常稳。
插件的排行榜长这样:
┌──────┬──────────────────────────────────────────┬────────┬─────────┬──────┬──────────┐ │ Rank │ Model │ TTFT │ Qual │ Tag │ Ctx │ ├──────┼──────────────────────────────────────────┼────────┼─────────┼──────┼──────────┤ │ 1 │ cloudflare/llama-3.2-32b-instruct │ 444ms │ ★★★★★ │ │ 128K │ │ 2 │ nvidia/llama-3.3-70b-instruct │ 692ms │ ★★★★★ │ ⭐ │ 65K │ └──────┴──────────────────────────────────────────┴────────┴─────────┴──────┴──────────┘安装真的简单
如果你是 OpenClaw 用户,只需要三步:
# 1. 下载到插件目录cp-ropenclaw-plugin-free-optimizer ~/.openclaw/plugins/free-optimizercd~/.openclaw/plugins/free-optimizer# 2. 安装编译npminstallnpmrun build# 3. 设为主模型# 在 OpenClaw 配置文件里把 model 改成 free-opt/auto然后去你喜欢的平台搞个 API Key 填一下(推荐 NVIDIA 和 Cloudflare,免费额度大还好申请),执行/free-opt_test就能看到排行榜了。
几个我特别喜欢的设计
1. 质量评分— 不只是看谁回得快,还看回答正不正确。插件会问 “法国的首都是什么?用一个词回答”,正确的给 5星,胡说的给低分。排名时质量优先,速度其次。
2. 一键健康检查—/free-opt_health只测当前在用模型,1秒出结果。如果模型挂了,它自动跑全量测速切到下一个。适合写成定时任务,我每半小时跑一次,保证不中断。
3. 过滤系统很灵活— 可以按平台、模型名、参数量、上下文大小来过滤。比如我只想用 NVIDIA 的 70B 以上模型:
{"includeProviders":["nvidia"],"minParamB":70}4. 缓存聪明— 5分钟内直接用缓存不测速,5-30分钟走旧数据同时后台刷新,超30分钟强制重测。用户请求永远不会因为测速而卡住。
在哪下载
GitHub 仓库:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer
MIT 开源协议,随便用随便改。
总结
如果你是 OpenClaw 用户又不想花钱买模型,这个插件是目前最省心的方案。装上、配 Key、设个 cron 跑健康检查——之后就忘了它存在,每次聊天自动走最快的免费模型。
白嫖到这种程度,挺爽的。🦞
如果你也在用 OpenClaw 或者有什么好用的 AI 插件推荐,评论区聊聊。
