OpenHuman:一个让你在几分钟内拥有 AI 超级智能的开源项目
用了半年的 AI 助手,最大的痛点是什么?它不了解我。每次对话都从零开始,我得花大量时间解释背景、重复上下文。OpenHuman 这个项目直接把这个问题连根拔了——它能在几分钟内"变成你"。
本文提纲
- OpenHuman 是什么
- 它是怎么做到"几分钟了解你"的
- 六大核心能力拆解
- 和 Claude Code、Hermes 等 Agent 框架的对比
- 架构与技术栈
- 动手试试
OpenHuman 是什么
OpenHuman 是一个开源的个人 AI Agent 框架,由 tinyhumans.ai 团队开发。一句话定位:
你的个人 AI 超级智能。私有、简洁、极其强大。
它不是又一个聊天机器人。它是一个会自动同步你所有数据的桌面 Agent——邮件、日历、代码仓库、文档、即时消息,全部拉到一个本地知识库里,然后基于这些上下文来服务你。
项目目前处于 Early Beta 阶段,GNU 协议开源,支持 macOS、Linux、Windows。
它是怎么做到"几分钟了解你"的
这是 OpenHuman 最有意思的设计。大多数 AI Agent 启动时是"冷"的——Hermes 需要你手动配置 skill,Claude Code 只知道你当前的代码仓库,OpenClaw 得靠插件慢慢搬运上下文。你得花几周甚至几个月,Agent 才能积累足够的背景知识。
OpenHuman 的思路完全不同,核心是一条三步链路:
MERMAID_BLOCK_0
第一步:一键连接。支持 118+ 第三方服务(Gmail、Notion、GitHub、Slack、Stripe、Calendar、Drive、Linear、Jira……),每个连接都通过 OAuth 完成,不需要你手动写 API key。
第二步:自动抓取。每 20 分钟,OpenHuman 会遍历所有活跃的连接,把新数据拉到本地。你不需要写任何 prompt 或轮询脚本,Agent 自己知道什么时候该刷新。
第三步:压缩进记忆树。所有数据被标准化成不超过 3000 token 的 Markdown chunk,打分后分层存储在本地 SQLite 数据库里。同一份数据还会以 .md 文件的形式落盘到一个 Obsidian 兼容的 vault 里——你可以直接用 Obsidian 打开、浏览、编辑。
这个设计灵感来自 Karpathy 的 Obsidian Wiki 工作流。一次同步之后,Agent 就拥有了你的收件箱、日历、代码仓库、文档、消息的完整上下文。没有训练期,没有"给它几周时间"。
六大核心能力拆解
1. 记忆树(Memory Tree)+ Obsidian Wiki
这是 OpenHuman 的灵魂。它不是简单的"把数据存下来",而是构建了一个层次化的知识图谱:
- 数据被切分成 ≤3k token 的 Markdown chunk
- 每个 chunk 有相关性评分
- 分层摘要树结构,存在本地 SQLite
- 同步生成 Obsidian vault,你随时可以查看和编辑 Agent 的"记忆"
这意味着你拥有完全的数据主权。Agent 记住的一切,你都能看见、能改、能删。
2. 118+ 第三方集成 + Auto-fetch
一个桌面 AI 助手好不好用,很大程度上取决于它能接多少服务。OpenHuman 内置了 118+ 集成,覆盖了大多数人日常工作的核心工具栈。关键是连接方式——一键 OAuth,不需要你去每个服务里手动生成 API key。
Auto-fetch 机制确保数据持续更新。每 20 分钟一轮同步,Agent 的上下文永远是新鲜的。
3. TokenJuice 智能压缩
这是一个容易被忽视但极其重要的设计。每次工具调用、网页抓取结果、邮件正文、搜索结果,在送到 LLM 之前都会经过一层 token 压缩:
- HTML 转 Markdown
- 长 URL 缩短
- 非 ASCII 字符清理
- 冗余信息剥离
官方数据:成本和延迟降低最多 80%。同样的信息,更少的 token。对于频繁调用多个 API 的 Agent 场景来说,这个优化是实打实的省钱。
4. 桌面吉祥物(Mascot)
OpenHuman 的 Agent 有一个桌面形象——它会说话、会对环境做出反应、甚至会加入你的 Google Meet 会议作为一个真实的参会者。你可以让它替你参加会议、记笔记、回答问题。
这个功能乍看像个噱头,但想想实际场景:每天有那么多不需要你亲自出席的会议,让 AI 替你参加、实时总结、有需要再叫你——这个需求是真实的。
5. 模型路由(Model Routing)
不同任务用不同模型,不需要你手动切换。OpenHuman 内置了模型路由机制,每个任务会自动分配到合适的 LLM——推理任务用强模型,简单任务用快模型,视觉任务用视觉模型。
还支持通过 Ollama 在本地跑模型,对隐私要求高的工作负载可以完全在设备端完成。
6. 内置工具集
不需要装插件就能用:
- Web 搜索和网页抓取
- 完整的编程工具集(文件系统、git、lint、test、grep)
- 原生语音(STT 输入 + ElevenLabs TTS 输出 + 吉祥物口型同步)
- Google Meet 实时 Agent
和其他 Agent 框架的对比
OpenHuman 在 README 里直接给了一张对比表,我整理一下关键差异:
| Claude Cowork | OpenClaw | Hermes Agent | OpenHuman | |
|---|---|---|---|---|
| 开源 | ❌ 私有 | ✅ MIT | ✅ MIT | ✅ GNU |
| 上手难度 | ✅ 桌面 + CLI | ⚠️ 终端优先 | ⚠️ 终端优先 | ✅ UI 优先 |
| 记忆 | 聊天级别 | 依赖插件 | 自学习 | Memory Tree + Obsidian |
| 集成 | 少量 | 自带 | 自带 | 118+ OAuth |
| 自动抓取 | ❌ | ❌ | ❌ | ✅ 20 分钟同步 |
| 模型路由 | 单模型 | 手动 | 手动 | ✅ 内置 |
| 原生工具 | 仅代码 | 仅代码 | 仅代码 | 代码+搜索+抓取+语音 |
几个核心差异很明确:
OpenHuman 的定位是"个人超级智能",不是"编程助手"。 Claude Code、Hermes、OpenClaw 都更偏向开发者工具,而 OpenHuman 想成为你生活和工作中的全能助手。
Auto-fetch 是独一份的。 其他 Agent 都需要你主动喂数据,OpenHuman 会自己去拉。这个区别看似小,实际体验差距巨大。
UI 优先 vs 终端优先。 OpenHuman 是桌面应用,不需要你碰终端。这对非开发者用户来说是决定性的。
架构与技术栈
从贡献指南里可以看到技术栈:
- 前端:基于 Tauri 的桌面应用(不是 Electron,更轻量)
- 后端:Rust(需要 Rust 1.93.0+)
- 构建:pnpm monorepo,Node.js 24+
- 存储:本地 SQLite + Obsidian vault(Markdown 文件)
- 浏览器引擎:CEF(Chromium Embedded Framework)
这意味着整个应用的数据都在你的机器上,服务端不存储你的工作流数据。
动手试试
安装很简单,一条命令:
# macOS / Linux
curl -fsSL https://raw.githubusercontent.com/tinyhumansai/openhuman/main/scripts/install.sh | bash# Windows
irm https://raw.githubusercontent.com/tinyhumansai/openhuman/main/scripts/install.ps1 | iex
或者直接去 tinyhumans.ai/openhuman 下载 DMG / EXE 安装包。
安装后,连接你最常用的几个账号(Gmail、GitHub、Calendar),等一轮 auto-fetch 跑完,你就能体验一个已经了解你的 AI Agent 了。
项目地址:github.com/tinyhumansai/openhuman
作者: itech001
来源: 公众号:AI人工智能时代
网站: https://www.theaiera.cn/
每日分享最前沿的AI新闻资讯和技术研究。
本文首发于 AI人工智能时代,转载请注明出处。
