OpenHuman 深度技术解析:个人 AI 超级智能体,从安装到记忆构建
一、项目概述
OpenHuman 是由 Tiny Humans AI 团队开源的个人 AI 超级智能体,定位为"Private, Simple and extremely powerful"的开源 agentic assistant。它不是冷启动的普通 agent——通过 Memory Tree、Obsidian Wiki、118+ 第三方集成、TokenJuice 智能压缩等核心技术,OpenHuman 能在几分钟内了解你,并在后台持续思考和学习。
核心特性:
二、技术原理
2.1 架构设计
┌─────────────────────────────────────────┐
│ Desktop App (Electron/Native) │
│ Mascot · Chat · Settings · Voice │
├─────────────────────────────────────────┤
│ Agent Core │
│ Model Routing · TokenJuice · Tools │
├─────────────────────────────────────────┤
│ Integration Layer │
│ Gmail · Notion · GitHub · Slack · ... │
│ (118+ integrations, auto-fetch) │
├─────────────────────────────────────────┤
│ Memory Layer │
│ Memory Tree (SQLite) · Obsidian Wiki │
├─────────────────────────────────────────┤
│ External Services │
│ LLM APIs · Web Search · Ollama (local) │
└─────────────────────────────────────────┘
2.2 Memory Tree + Obsidian Wiki
OpenHuman 的 Memory Tree 是其最独特的设计:
1. 所有连接的数据被规范化为 ≤3k token 的 Markdown 块
2. 每个块被评分后折叠为分层摘要树
3. 数据存储在本地 SQLite 中
4. 同时输出为 .md 文件到 Obsidian 兼容的 vault
灵感来自 Karpathy 的 obsidian-wiki 工作流,但做了自动化增强——每 20 分钟自动刷新活跃连接的数据。
2.3 TokenJuice 智能压缩
TokenJuice 是 OpenHuman 的成本优化层:
效果:相同信息,token 消耗降低高达 80%,延迟同步降低。
2.4 118+ 集成的自动拉取机制
每个连接被暴露为 agent 的 typed tool,每 20 分钟 agent 自动遍历所有活跃连接,拉取新数据注入 Memory Tree。无需编写轮询循环,agent 已经拥有明天的上下文。
2.5 多模型路由
OpenHuman 支持一个订阅下路由多个 LLM:
同时支持本地 Ollama AI 作为完全离线的备选方案。
三、安装与快速开始
3.1 安装
macOS/Linux:
curl -fsSL https://raw.githubusercontent.com/tinyhumansai/openhuman/main/scripts/install.sh | bash
Windows:
irm https://raw.githubusercontent.com/tinyhumansai/openhuman/main/scripts/install.ps1 | iex
或者直接访问 tinyhumans.ai/openhuman 下载安装包。
3.2 快速开始
安装完成后,启动应用,按照简短的 onboarding 流程连接你的服务(Gmail、Notion、GitHub 等)。几分钟后,agent 就开始在后台学习和记忆了。
3.3 与 Coding Agent 集成
npx -y react-doctor@latest install
支持 Claude Code、Cursor、Codex、OpenCode 等 50+ agent。
四、使用方法与实战
4.1 日常使用
OpenHuman 的核心体验是"后台思考"——即使你停止输入,agent 仍在持续处理数据、更新 Memory Tree。当你回来时,它已经准备好了上下文。
4.2 会议 Agent
Mascot 可以加入你的 Google Meet 会议,作为真实参与者。它能记录会议内容、做笔记、甚至在你需要时提供实时信息。
4.3 本地 AI 模式
# 配置 Ollama 作为本地模型
在设置中选择 Ollama 作为模型提供者
适合对隐私有高要求、或需要在离线环境下工作的场景。
4.4 Obsidian Wiki 浏览
打开 Obsidian(或任何 Markdown 编辑器),指向 OpenHuman 的 vault 目录,即可浏览和编辑 agent 构建的知识库。所有数据都是本地 .md 文件,完全可控。
五、常见问题与解决方案
5.1 安装失败
确保系统满足要求:macOS 15.0+ (Sequoia) 或 Windows/Linux 现代版本。
5.2 Token 成本过高
启用 TokenJuice 压缩,确保所有工具调用和 API 响应都经过压缩层。
5.3 集成连接失败
检查 OAuth 授权是否有效,部分服务可能需要重新授权。
5.4 本地 Ollama 性能不足
本地模型受限于硬件性能。建议至少 16GB RAM 的 Apple Silicon Mac,或配备 GPU 的 Linux 服务器。
六、总结
OpenHuman 代表了个人 AI 助手的未来方向——不是冷启动的问答机器,而是能在几分钟内了解你、在后台持续学习、并通过 Memory Tree 构建个人知识库的真正智能体。118+ 集成、TokenJuice 压缩、Obsidian Wiki、mascot 交互、多模型路由,这些功能共同构成了一个"个人 AI 超级智能体"。
GitHub 地址: https://github.com/tinyhumansai/openhuman
稳定可靠低价的AI中转站:X API
