OpenClaw装上这个插件,AI才算真的记得你
这篇文章来源于至顶AI实验室对OpenClaw + GBrain组合的实测评估报告。测试于2026年4月完成,核心问题只有一个:这套被称为"第二大脑"的系统,究竟能不能让AI真正记住你?
GBrain不是一个无名小卒。它于2026年4月10日正式开源,上线24小时内收获超过5400颗GitHub星标,作者是Y Combinator的总裁兼CEO陈嘉兴(Garry Tan)。他用GBrain驱动自己的OpenClaw和Hermes智能体,整个知识库已累积17888个页面、4383位联系人档案、723家公司记录,系统内运行着21个自动化定时任务,这一切在12天内搭建完成。这不是演示环境,而是真实运转的生产系统。
GBrain面对的是一个AI领域长期悬而未决的根本问题。大多数AI智能体没有记忆,每次开启新对话,一切从零开始。GBrain试图用一套"越用越聪明"的知识积累机制来打破这个死循环。
“记忆"到底长什么样
大多数人理解中的AI记忆,不过是把聊天记录存起来再喂回去。GBrain的设计不同。
每一个知识页面遵循同一个结构:分隔线上方是"编译事实"——当前最佳理解,随证据更新而改写;分隔线下方是"时间线"——只增不减的证据轨迹,永远不会被编辑。
一个真实的人物档案页面大概长这样:这个人的职位、关系背景、你们见面的结论写在上半段,会随每次新信息刷新;而你们从2019年第一次见面到最近一次电话沟通的每一条记录,追加在下半段,永久保留。上方是答案,下方是证据。这个分离设计,让GBrain成为一套智能系统,而不只是笔记堆放处。
知识图谱的"自动布线"是另一个关键机制:每次写入页面,系统自动提取实体引用,创建类型化关联(出席了、任职于、投资了、创立了、顾问关系),整个过程零LLM调用,纯确定性执行。检索时,问"谁在Acme AI工作?"或"Bob这季度投了什么项目?",系统可以给出单靠向量搜索永远无法触达的答案。
那个让你“睡一觉就变聪明"的机制
GBrain最让人着迷的功能,不是搜索,是Dream Cycle(梦境循环)。
每晚,GBrain的智能体会自动扫描所有对话,补全缺失实体,修正引用错误,整合记忆。你醒来的时候,大脑比睡前更聪明了。OpenClaw将这套机制封装在DREAMS.md中,相当于人类睡眠时记忆巩固过程的AI版本。
理论上很美。但实测结果给这幅图画泼了盆冷水。
至顶AI实验室的评估发现,实体识别与自动建档"极不稳定,高度依赖特定大模型"。换句话说,Dream Cycle能否正常运转,关键在于你用的是什么模型。官方建议配合Claude Opus 4.6或GPT-5.4 Thinking使用,小模型往往跑不动这套读写循环,结果是要么什么都没记住,要么记错了。
这不是系统设计的问题,而是现实边界:智能体在你睡觉时摄入会议、邮件、推文、语音通话和原始想法,丰富每一个遇到的人和公司的档案,前提是你喂给它的是足够强的推理引擎。
搜索真的比“找东西"难得多
系统能不能回忆起你需要的信息,依赖两条腿走路:精确关键词和语义相似度。
GBrain的检索流水线是:意图分类器判断查询类型(实体?时间?事件?通用?),然后触发多查询扩展,同时跑向量搜索(HNSW余弦相似度)和关键词搜索(tsvector),再用RRF融合排序,叠加余弦重新评分和编译事实加权,最后经过四层去重。
之所以要同时用向量和关键词两套检索,是因为:只用关键词,"忽略传统智慧"这个查询永远找不到讲"天才的公交车票理论"那篇笔记;只用向量,精确短语又容易漏掉。RRF融合让两者都对。
实测结果印证了这套逻辑。用精确关键词和语义相近的不同表述查询同一内容,两种情况下都能召回目标笔记,混合检索策略经过验证是有效的。
根据GBrain官方基准测试,引入知识图谱后,Recall@5从83%提升到95%,Precision@5从39%提升到45%,在240页语料上多找对了30条答案,图谱F1得分达86.6%,远超grep的57.8%。
真实运转与理想之间的距离
陈嘉兴自己的生产环境部署在Render容器上,Supabase Postgres托管着一个拥有45798个页面、98K个数据块、25K条关联、79K条时间线记录的知识库,同时跑着19个定时任务。这是一个真实运行中的重型系统。
但至顶AI实验室的评估认为,OpenClaw + GBrain组合"更适合技术探索,距离稳定生产力工具尚有距离",具体问题集中在两点:
第一,后台Dream Cycle存在延迟。知识库更新到新信息被有效检索,中间有一个时间窗口,这意味着你不能指望刚发生的事情立刻被系统"记住"。
第二,冷启动门槛真实存在。记忆效果随使用积累而提升,初期数据量少时,系统表现可能让你觉得"和没装一样"。
反过来说,一位开发者测试时询问智能体关于某人的信息,系统调取了108封邮件、91次会议记录,从五年的行为模式中推断出对方的角色。这个人他自己都几乎遗忘了,但智能体没有。这种体验,说明系统在积累到一定规模后,确实能提供单靠人类记忆无法还原的洞察。
“这是图书馆,不是记忆"
一个值得认真对待的区分。
有观点认为GBrain被很多人误解了:它不是记忆,而是图书馆。记忆会编码某件事为什么重要、对谁重要、这种重要性如何随时间演变;图书馆则是预先整理好的事实和观点集合,供智能体快速检索。
这个区分直接影响你对系统的预期。GBrain能做的事是:你明确存入的东西,它帮你结构化保存,并在需要时精准调出。它做不到的事是:自动理解"这件事对你意味着什么",或在没有高端模型配合时自主生成有意义的新知识关联。
早期OpenClaw社区的讨论指出,GBrain超越了简单的信息检索,向主动知识综合迈进。但"迈进"意味着方向,而不是到达。至顶AI实验室的测试结论与这一判断基本一致:这套系统解决了AI"记不住"的痛点,跨对话记忆与混合检索表现稳定;但"自动学习"的边界很清晰,实体识别仍然高度依赖高端模型,后台同步延迟也是真实的体验减分项。
如果你已经在用OpenClaw,且手头有高质量的文本数据需要长期管理,GBrain值得接入。如果你期待的是一个什么都不用管、自动越变越聪明的AI助理,目前这个版本还需要等待。
核心问答
Q1:GBrain和普通RAG检索有什么本质区别?
普通RAG是把文档切片后做向量索引,查什么找什么。GBrain在此之上增加了两个层:一是以人和公司为单位的结构化实体档案(编译事实+时间线),二是自动提取的知识图谱(人物关系、投资关系等)。检索时不仅能做语义匹配,还能回答"A和B有什么关系?"这类图谱问题。差距在于从被动检索到主动知识建模。
Q2:Dream Cycle真的有用吗?
在高端模型配合下(Claude Opus 4.6或同等水平),Dream Cycle确实能自动完成实体补全、引用修正、记忆整合。但它依赖的是每晚异步运行的LLM任务,存在延迟,且对模型推理能力要求很高。实测中,这是最不稳定的环节,小模型基本跑不动,体验方差较大。
Q3:什么样的用户最适合使用GBrain这套系统?
最适合的场景是:需要长期追踪大量人脉关系、交易历史或领域知识,且愿意投入时间做初期数据导入的重度知识工作者。研究人员、投资人、媒体记者、高频商务社交人群都在适用范围内。不适合的是希望开箱即用、几乎无配置就能体验完整功能的普通用户。
END本文来自至顶AI实验室,一个专注于对AI计算机、工作站及各类AI相关硬件设备,开展基于真实使用场景评测的研究机构。
