Pi Agent和Claude Code
在windows电脑上安装 为Pi agent,并配置自定义模型。
在windows电脑上安装 为Claude Code,并配置自定义模型。
配置相同模型的话,Pi Agent 和 Claude Code 相比,那个更好,2者的优劣势。
要在 Windows 上从零开始配置一个自主可控的 AI 编程助手,Pi Agent 和 Claude Code 是两种核心路径的代表。简单来说,这像是一个选择:自定义积木 vs 智能成品。
如果你享受从零搭建,渴望极致的掌控和成本效益,Pi Agent 是你的“变形金刚”,我通常会首先推荐 Pi Agent;如果你需要开箱即用,专注于大型项目的复杂重构,Claude Code 则是那个强大的“专用工具”。
| 维度 | Pi Agent (自定义积木) | Claude Code (智能成品) |
|---|---|---|
| 核心理念 | 极简、可编程的“终端套件”,提供可随时修改的TypeScript扩展环境。 |
功能全面、开箱即用的“完整产品”,由 Anthropic 官方打造。 |
| 上手门槛 | 中等偏高。需要熟悉命令行、Node.js 和 TypeScript,适合高阶开发者。 |
低。安装后通过官方登录即可使用,适合新手和希望快速上手的用户。 |
| 架构设计 | “零依赖” ,仅提供 4 个核心工具。所有额外功能都作为可选的扩展。 | “内置一切”,提供 18+ 种工具、子代理、权限系统、LSP 等。 |
| 模型支持 | 支持任何 API,包括 OpenAI、Anthropic、Google 等,特别是 Ollama、LM Studio 等本地模型,可彻底离线使用。 | 主要依赖官方 Claude模型,但可通过环境变量或包装器(如 claude-glm-installer)调用其他兼容 API。 |
| 成本分析 | 开源免费,仅需支付 API 调用费用或运行本地模型。 | 订阅制,约 $20/月,重度使用可能另有计费。 |
| 社区生态 | 社区驱动,拥有 TypeScript 扩展、技能包等。生态正在快速成长,自由度极高。 |
官方支持,生态完善,集成度高,可直接使用 CLAUDE.md 等官方标准。 |
💡 配置自定义模型
两者都支持在配置文件中通过设置 API key 和 Base URL 来对接其他兼容的模型提供商。
Pi Agent 实战:比如将 Pi Agent 与 Ollama 或 LM Studio 这类本地服务器连接,即可用上 Gemma 4 这样的模型,实现完全离线的 AI 编程环境。
🏆 深度对比与适用场景
一个“瘦”到极致的 TypeScript 套件和一个功能完备的独立工具,它们的优劣势具体如何:
| 对比维度 | 🟢 Pi Agent | 🔴 Claude Code |
|---|---|---|
| 核心理念与哲学 | 极简、可编程的终端套件。像一个工具箱,提供可随时修改的 TypeScript 扩展环境。 |
功能全面、开箱即用的完整产品。由 Anthropic 官方打造。 |
| 上手门槛 | 中等偏高。需要熟悉命令行、Node.js 和 TypeScript,适合希望深度定制的高阶开发者。 |
低。安装后通过官方登录即可使用,适合新手和希望快速上手的用户。 |
| 架构设计 | "零依赖" ,仅提供 read、write、edit、bash 4 个核心工具。所有额外功能都是可选的扩展。 |
"内置一切",提供 18+ 种工具、子代理、权限系统、LSP 等。 |
| 模型支持 | 支持任何 API,包括 OpenAI、Anthropic、Google 等。尤其对 Ollama、LM Studio 等本地模型支持极佳,可彻底离线使用。 | 主要依赖官方 Claude 模型,但可通过环境变量或包装器(如 claude-glm-installer)调用其他兼容 API。 |
| 扩展性 | 无限。内核极小,能通过 TypeScript 扩展深度定制,甚至让 AI 自己扩展自己。 |
有限。支持通过插件添加工具,但定制深度和自由度与 Pi 不在一个量级。 |
| 性能与成本 | 极高。系统提示词极短。单次请求仅约 2,600 tokens。开源免费,只需支付 API 调用费用或本地运行模型。 | 较低。系统提示词庞大。单次请求高达约 27,000 tokens。需购买订阅,约 $20/月,重度使用可能另有计费。 |
| 优势 | 1. 极致成本效益:更少的 tokens 意味着更低的 API 费用。 2. 灵活可控:从模型到行为,一切皆可掌控。 3. 真正的离线能力:可与本地模型完美结合,保障代码隐私。 |
1. 强大的复杂任务处理:在理解大型代码库、多文件重构方面表现优异。 2. 官方生态完善:集成度高,享有官方持续更新与支持。 |
| 劣势 | 1. 学习曲线:需要投入时间学习其设计哲学和扩展方式。 2. "非主流":不内置权限弹窗、MCP 等"标配"功能,需自行组装。 |
1. 成本高昂:持续的订阅费和较大的 token 消耗对个人开发者是不小负担。 2. 灵活性不足:核心功能由官方决定,定制能力有限。 |
| 适用场景 | 首选!尤其适合追求极致控制、预算敏感、重视代码隐私、希望使用本地模型的高阶开发者。 | 适合预算充足、追求开箱即用、需要处理大型复杂项目重构的专业重度用户。 |
当使用相同模型时,这种哲学差异会直观地体现在性能和成本上。Pi Agent 极简的设计让它像一个毫无冗余的“精准工具”,而 Claude Code 完备的功能集则像一辆功能齐全但自重较大的“重型卡车”。
🚀 在 Windows 上快速部署
部署步骤配置思路是相通的,下面是把它们跑起来的具体步骤。
1. 安装 Pi Agent
前置要求:
- Node.js (v14+) 或 Bun 运行时。
- Git for Windows:提供 Pi 所需的
bash环境。
步骤:
-
安装:以管理员身份打开 Git Bash 或 PowerShell,执行:
npm install -g @mariozechner/pi-coding-agent或通过 Bun 安装(推荐,速度更快):
bun install -g @oh-my-pi/pi-coding-agent -
验证安装:
pi --version -
配置自定义模型:Pi 的配置非常灵活,你可以在
~/.pi/agent/models.json中定义新模型。对于本地模型,例如通过 Ollama 运行qwen2.5-coder,可以这样配置:{"models": [{"id": "ollama-qwen","name": "Qwen 2.5 Coder (Ollama)","provider": "openai-compatible","model": "qwen2.5-coder:latest","baseUrl": "http://localhost:11434/v1","apiKey": "ollama"}] }然后,在 Pi 的会话中输入
/model ollama-qwen即可切换到该模型。
2. 安装 Claude Code
前置要求:
- Node.js (v14+)。
- Git for Windows:获得更好的 Unix 命令兼容性。
步骤:
-
安装:以管理员身份打开 PowerShell 或 Git Bash,执行:
npm install -g @anthropic-ai/claude-code -
验证安装:
claude --version -
配置自定义模型:
- 环境变量法:使用支持 Anthropic API 或 OpenAI API 的第三方模型服务。通过设置环境变量来覆盖 Claude Code 的默认后端。
$env:ANTHROPIC_AUTH_TOKEN = "你的第三方API Key" $env:ANTHROPIC_BASE_URL = "https://api.third-party.com/v1" - 包装器法:使用社区工具如
claude-glm-installer,它能自动创建别名,让你用ccg等命令调用 GLM 模型,且不影响原版 Claude Code 的使用。npx claude-glm-installer
- 环境变量法:使用支持 Anthropic API 或 OpenAI API 的第三方模型服务。通过设置环境变量来覆盖 Claude Code 的默认后端。
总结:
对于追求掌控与效率的你,Pi Agent 那条充满极客精神的 DIY 之路,无疑充满了无法抗拒的吸引力。它能让你深刻体会到"工具为你所用"的自由。虽然 Claude Code 在某些特定场景下有其优势,但它终将需要向更开放、更低成本的方案进化。
希望这份详尽的对比和指南能帮你做出最适合自己的选择~

