当前位置: 首页 > news >正文

白嫖党狂喜!OpenClaw 免费模型自动测速插件,9大平台自动选最快的

tags: [OpenClaw, AI, LLM, 免费模型, 插件, 开源]

先说结论:如果你用 OpenClaw,这个叫 Free Optimizer 的插件值得装上试试。

地址:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer

我平时喜欢折腾各种 AI 本地部署和网关工具,OpenClaw 算是我目前在用的消息网关(把各种聊天软件和 AI 模型连起来)。但它有一个痛点——我想用免费的模型,但免费模型分布在十几个平台上,有的快有的慢,有的今天能用到明天就限流了。手动切来切去特别烦。

这周逛 GitHub 的时候发现有人写了一个 OpenClaw 插件,叫Free Optimizer,专门干这个事。

它是干什么的

一句话:自动发现 9大平台的免费模型,实时测速,每次聊天自动切换到当前最快那个。

装上之后你在 OpenClaw 里设model: free-opt/auto,剩下的它全自动。不用管哪个平台今天正常、哪个超时——插件每小时跑一次全面测速,把你的模型排名更新一遍,下次聊天自动走排名第一的。

支持哪些平台

目前它支持 9个平台:

平台典型模型国内用户
OpenRouterDeepSeek R1, Llama 4, Qwen3✅ 直连
NVIDIA NIMLlama 3.3 70B, Kimi K2.5✅ 直连
CloudflareLlama 3.2 1B/3B✅ 直连
GitHub ModelsGPT-4o Mini, DeepSeek R1✅ 直连
GoogleGemini 2.5 Pro/Flash❌ 需要代理
GroqLlama 3.3 70B❌ 需要代理
CerebrasLlama 3.3 70B❌ 需要代理
MistralMistral Large, Codestral❌ 需要代理
HuggingFace各种开源模型❌ 需要代理

国内用户只配前三个就能用得挺好,不需要任何代理工具。

实测效果

我在自己的服务器上跑了一轮测试,这是实际排名:

排名模型延迟质量
🥇Cloudflare Llama 3.2 32B444ms★★★★★
🥈NVIDIA Llama 3.3 70B692ms★★★★★
🥉GitHub DeepSeek R11123ms★★★★★

Cloudflare 的小模型只有 32B 参数,但胜在延迟极低,简单对话完全够用。如果要推理能力强的,NVIDIA 的 70B 模型也只花了不到 700ms,非常稳。

插件的排行榜长这样:

┌──────┬──────────────────────────────────────────┬────────┬─────────┬──────┬──────────┐ │ Rank │ Model │ TTFT │ Qual │ Tag │ Ctx │ ├──────┼──────────────────────────────────────────┼────────┼─────────┼──────┼──────────┤ │ 1 │ cloudflare/llama-3.2-32b-instruct │ 444ms │ ★★★★★ │ │ 128K │ │ 2 │ nvidia/llama-3.3-70b-instruct │ 692ms │ ★★★★★ │ ⭐ │ 65K │ └──────┴──────────────────────────────────────────┴────────┴─────────┴──────┴──────────┘

安装真的简单

如果你是 OpenClaw 用户,只需要三步:

# 1. 下载到插件目录cp-ropenclaw-plugin-free-optimizer ~/.openclaw/plugins/free-optimizercd~/.openclaw/plugins/free-optimizer# 2. 安装编译npminstallnpmrun build# 3. 设为主模型# 在 OpenClaw 配置文件里把 model 改成 free-opt/auto

然后去你喜欢的平台搞个 API Key 填一下(推荐 NVIDIA 和 Cloudflare,免费额度大还好申请),执行/free-opt_test就能看到排行榜了。

几个我特别喜欢的设计

1. 质量评分— 不只是看谁回得快,还看回答正不正确。插件会问 “法国的首都是什么?用一个词回答”,正确的给 5星,胡说的给低分。排名时质量优先,速度其次。

2. 一键健康检查/free-opt_health只测当前在用模型,1秒出结果。如果模型挂了,它自动跑全量测速切到下一个。适合写成定时任务,我每半小时跑一次,保证不中断。

3. 过滤系统很灵活— 可以按平台、模型名、参数量、上下文大小来过滤。比如我只想用 NVIDIA 的 70B 以上模型:

{"includeProviders":["nvidia"],"minParamB":70}

4. 缓存聪明— 5分钟内直接用缓存不测速,5-30分钟走旧数据同时后台刷新,超30分钟强制重测。用户请求永远不会因为测速而卡住。

在哪下载

GitHub 仓库:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer

MIT 开源协议,随便用随便改。

总结

如果你是 OpenClaw 用户又不想花钱买模型,这个插件是目前最省心的方案。装上、配 Key、设个 cron 跑健康检查——之后就忘了它存在,每次聊天自动走最快的免费模型。

白嫖到这种程度,挺爽的。🦞


如果你也在用 OpenClaw 或者有什么好用的 AI 插件推荐,评论区聊聊。

http://www.jsqmd.com/news/733435/

相关文章:

  • 记一次「订阅刺客」引发的独立开发:SwiftData踩坑与订阅管理App的技术实现
  • Pentaho Data Integration终极指南:从数据新手到ETL专家的完整成长路径
  • 为什么你的`{quarto}::render()`总在CI失败?——Tidyverse 2.0面试高频工程化考点(含Docker+RSPM+renv三重环境校验)
  • Python 爬虫高级实战:爬虫速度与稳定性平衡调优
  • 终极指南:使用Swagger2Word实现企业级API文档自动化管理
  • 深度解析:如何构建基于图像识别的鸣潮游戏自动化解决方案
  • 从ReSharper Ultimate到dotUltimate:JetBrains全家桶升级指南与授权策略全解析
  • 解锁音乐自由:qmcdump如何打破QQ音乐格式壁垒
  • 企微私域新客 AI 运营实战:轻量化工具落地指南
  • 告别时间戳混乱!手把手教你用CAPL的timeNow和timeNowNS函数搞定车载测试计时
  • java请假审批怎么做
  • ComfyUI ControlNet辅助预处理器完整指南:轻松掌握AI图像控制技术
  • 终极指南:如何免费解锁Cursor Pro全部功能 - cursor-free-vip完整解决方案
  • 拆解蓝桥杯JavaB组真题:除了算法,这些‘工程思维’和‘调试技巧’你掌握了吗?
  • 【3】明明建了索引,为什么 MySQL 还是慢?一文带你理清 InnoDB 存储引擎
  • JetBrains Gateway远程连接报错‘host-status’?别急着改VM参数,先试试这个‘重启大法’
  • 通过taotoken快速为ubuntu上的多个python微服务接入ai能力
  • Ubuntu 18.04 + ROS Melodic 下,手把手搞定YOLOv5与CUDA 10.2的完美配对(避坑显卡驱动)
  • Midscene.js终极指南:用AI视觉模型实现跨平台UI自动化,告别传统脚本编程
  • 父类Animal的getter和setter方法怎么写?
  • 通过 curl 命令直接测试 Taotoken 提供的多模型聊天补全接口
  • 告别‘炼丹’黑盒:用HuggingFace Transformers库逐行调试T5模型注意力机制
  • 《QGIS快速入门与应用基础》312:进阶:结合行政区统计POI数量
  • 终极指南:如何无限重置JetBrains IDE试用期,让30天免费体验永不过期
  • 告别Postman和JMeter单打独斗?手把手教你用MeterSphere搭建一站式测试平台(含Jenkins集成)
  • 手把手教你实现el-table的‘智能’Tooltip:仅在文本溢出时才显示(附完整代码与防抖优化)
  • 江浙沪皖铝蜂窝板厂家实测:工地视角看品质与服务 - 奔跑123
  • Unity新手避坑指南:别再乱用Layer了!从碰撞检测到灯光剔除,5个实战场景帮你理清思路
  • 专栏C-产品战略与竞争-04-时机判断
  • 农民工工资保障程序,薪资合约上链,按期自动发放,杜绝拖欠,卷款跑路。