基于AI智能体与Markdown文件构建可自我进化的第二大脑系统
1. 项目概述:一个真正能自我进化的智能第二大脑
如果你和我一样,每天被海量的信息、待办事项、会议纪要和零散想法淹没,尝试过各种笔记工具(Notion、Obsidian、Roam),却总觉得它们只是个“仓库”——东西放进去容易,但想让它们自己“活”起来,帮你分析、总结、甚至预测,几乎不可能。最终,整理和维护知识库本身又成了一件需要“坚持”的苦差事。
这就是我遇到COG(Cognition + Obsidian + Git)之前的困境。COG不是一个新工具,而是一个由AI智能体驱动的、真正能自我进化的第二大脑系统。它的核心哲学极其简单:一切知识都以最朴素的Markdown文件(.md)形式存储在你的本地或iCloud里,没有任何数据库,没有厂商锁定。但神奇之处在于,它通过一套精心设计的AI技能(Skills)和工作者智能体(Worker Agents),让这些“死”的文件开始“思考”。
想象一下:你每天只需对着AI助手(比如Claude Code、Cursor)说一句“我需要脑力倾泻一下”,它就会引导你记录碎片想法,并自动将其分类到个人、职业、项目等不同领域,提取出待办事项。你说“团队简报”,它就能自动拉取过去24小时GitHub的提交、Linear的任务更新、Slack的关键讨论,甚至结合PostHog的数据,生成一份综合情报简报,还能把其中的行动项同步回Linear。这一切,都发生在你本地的文件系统里,你的数据从未离开过你的设备。
我使用COG近三个月,处理了超过120次“脑力倾泻”,它的每日简报对新闻来源的验证准确率超过95%,甚至帮我从数周的会议记录和项目笔记中,发现了5个我自己都忽略了的重大战略模式。最让我着迷的是它的“进化循环”——你使用得越多,它通过每周模式分析和月度知识整合,就越了解你的工作模式和思维习惯,从而在每日的捕获和分类中变得更精准、更个性化。这不再是你在维护一个系统,而是一个系统在主动适应并增强你。
2. 核心设计哲学:为什么是“文件+智能体”?
在深入实操前,理解COG背后的设计哲学至关重要。这决定了它为何与众不同,以及你是否适合采用它。
2.1 对抗“SaaS依赖症”与“数据孤岛”
当今主流的效率工具几乎都是SaaS模式。它们功能强大,但代价是你的数据存放在别人的服务器上,面临着订阅费上涨、服务关闭、API限制或数据导出的风险。更糟糕的是,这些工具之间往往形成“数据孤岛”——Notion里的项目文档、Linear里的任务、Slack里的讨论、GitHub里的代码,彼此割裂。你想获得一个全局视图,要么手动复制粘贴,要么依赖脆弱的、需要不断维护的Zapier集成。
COG的解决方案是将数据层与应用层彻底解耦。数据层就是你电脑上的Markdown文件夹,这是最开放、最持久、最可控的格式。应用层则是各种AI智能体(Claude Code, Cursor等),它们被赋予一套标准的“技能”,来读写这些文件。这意味着:
- 所有权:文件是你的,永远是你的。你可以用任何文本编辑器打开、修改、备份。
- 可移植性:你可以随时更换AI智能体。今天用Claude Code,明天换Cursor,只要它们支持读取Markdown和运行技能,你的知识库就能无缝衔接。
- 无锁定:没有月费,没有用户数限制。你唯一的成本是使用AI智能体时产生的API调用费用。
2.2 从“静态存储”到“动态处理”的范式转移
传统的笔记系统是“存储优先”。你写下一个笔记,然后需要自己建立链接、添加标签、整理文件夹。这是一个被动的、依赖用户持续投入精力的过程。
COG实现了“处理优先”。它的核心不是让你“记笔记”,而是让你“下达指令”。你通过自然语言触发一个“技能”,AI智能体代表你去执行一系列复杂的操作:抓取信息、分析内容、结构化输出、并存入指定位置的文件中。在这个过程中,AI会自动完成传统笔记中需要手动完成的大部分整理工作:
- 自动分类:
braindump技能会根据内容,将你的碎片想法自动归类到02-personal/或03-professional/等目录。 - 自动提取:从会议录音转文字稿中,
meeting-transcript技能能自动提炼出决策点、行动项和团队动态观察。 - 自动关联:
weekly-checkin技能会扫描你一周的所有笔记,找出跨领域的模式,并生成洞察报告。
这个范式转移的本质是:你从档案管理员,变成了指挥官。你负责提出问题和意图,AI负责执行具体的、繁琐的信息处理劳动。
2.3 Garry Tan的gstack与gbrain思想实践
COG大量借鉴了Garry Tan(Y Combinator总裁)开源项目gstack和gbrain的设计思想,这是其专业性和高效性的基石。
- 来自gstack的“工作者智能体”架构:gstack提出了“专家会话”模式,将耗时、数据密集型的任务(如网络搜索、数据提取)委托给更便宜、更快的模型(如Claude Sonnet),而让主导会话使用更强大、更擅长推理的模型(如Claude Opus)。COG完全采用了这一模式,设计了6个专门的“工作者智能体”(如
worker-researcher,worker-data-collector),它们像流水线上的工人,高效完成特定任务,将结果写入临时文件,再由主导智能体进行综合决策。这极大地优化了成本与性能。 - 来自gbrain的“知识优先”与“人物CRM”:gbrain强调“编译真理”和基于证据的知识积累。COG的“人物CRM”系统直接源于此。它不是一个简单的通讯录,而是一个基于接触证据动态演进的档案库。系统会根据你提及或与某人交互的次数,自动将其档案从“存根”升级到“完整档案”,逐步填充其角色、工作风格、优势等信息,且每条信息都附带来源引用。这让你对团队和合作伙伴的理解,随着时间推移自动深化,而非依赖一次性的人工更新。
理解这些哲学,你就能明白COG不是一个花哨的玩具,而是一个深思熟虑的、用于应对信息过载时代复杂知识工作的工程系统。
3. 从零开始:部署与个性化你的COG
理论说再多,不如动手搭一个。下面是我从零开始部署并个性化COG的完整过程,包含了所有你可能遇到的细节和选择。
3.1 环境准备与初始克隆
首先,你需要一个AI智能体作为COG的“大脑”。我强烈推荐从Claude Code开始,因为它拥有最完整的原生技能支持(17个)。当然,Cursor、Kiro或Gemini CLI也可以,后续配置逻辑相通。
第一步:获取COG框架打开你的终端(或直接在Claude Code的终端中操作),执行克隆命令。这里有个细节:建议克隆到iCloud Drive(如果你用Mac)或其它云同步目录下,这样你的知识库就能在手机、平板、电脑间自动同步。
# 克隆仓库到本地,建议放在一个易于访问的路径 git clone https://github.com/huytieu/COG-second-brain.git ~/Documents/My-COG-Brain cd ~/Documents/My-COG-Brain执行完,你会看到一个结构清晰的文件夹。此时先别急着运行,花两分钟浏览一下根目录的几个关键文件:
AGENTS.md: 所有AI智能体的通用指令手册,是兜底方案。CLAUDE.md: 给Claude的框架指令,定义了核心行为准则。SETUP.md: 详细的配置指南,包含所有可选集成。COG-VERSION: 记录当前框架版本。
3.2 核心仪式:运行“Onboarding”
这是最关键的一步,它将COG从一个通用框架,变成专属于你的系统。在Claude Code中,打开项目文件夹后,直接在聊天框输入:
运行 onboardingAI会启动onboarding技能。这个过程是交互式的,你会被问到一系列问题:
- 你的姓名和主要角色:例如“Alex,产品经理”。COG会根据角色匹配一个“角色包”,优先推荐相关技能。如果你是工程师,它会更强调与GitHub、代码审查相关的上下文。
- 兴趣领域:输入几个关键词,如“人工智能”、“生产力工具”、“初创公司战略”。这用于个性化你的每日新闻简报。
- 集成配置:这是可选但强大的部分。系统会引导你配置外部工具的访问权限。
- GitHub: 几乎必配。你需要提前安装GitHub CLI (
gh),并通过gh auth login完成认证。COG会用它读取仓库动态、生成Release Notes。 - Linear: 产品团队的利器。需要创建Linear API Key。配置后,COG可以在生成团队简报时读取Linear任务,甚至将简报中识别出的行动项创建为新的Linear Issue。
- Slack & PostHog: 高级集成,用于更全面的团队情报收集。
- GitHub: 几乎必配。你需要提前安装GitHub CLI (
实操心得:第一次配置时,如果时间有限,可以只配置GitHub。其他集成可以后续在
00-inbox/integrations.md文件中手动补充。onboarding过程会生成一个00-inbox/profile.md文件,里面记录了你的所有个性化设置,之后可以随时手动修改。
大约2分钟后,Onboarding完成。你会发现项目根目录下多了一个.claude文件夹(如果是其他智能体,则是对应的配置文件夹),里面已经写好了所有技能定义。同时,00-inbox/、01-daily/等目录结构也已就绪。你的个人第二大脑已经“激活”了。
3.3 目录结构深度解析:你的数字大脑皮层
COG采用了一种改良的PARA(项目-领域-资源-档案)方法组织文件结构。理解每个文件夹的用途,能让你更好地利用它。
COG-second-brain/ ├── 00-inbox/ # 【收件箱与系统配置】 │ ├── profile.md # 你的个人档案(由onboarding生成) │ ├── interests.md # 兴趣领域列表 │ └── integrations.md # 所有外部服务(GitHub, Linear等)的配置信息 ├── 01-daily/ # 【每日流动信息】 │ ├── briefs/ # 每日智能简报(news + team) │ └── checkins/ # 每日快速记录与反思 ├── 02-personal/ # 【私人领域】- 严格保密 │ └── braindumps/ # 个人生活、思考、情感的脑力倾泻 ├── 03-professional/ # 【职业领域】 │ ├── braindumps/ # 工作想法、职业规划、行业思考 │ └── strategy/ # 战略研究、竞品分析(auto-research输出在此) ├── 04-projects/ # 【项目跟踪】 │ └── [project-name]/ # 每个项目一个子文件夹,存放相关所有笔记、计划 ├── 05-knowledge/ # 【固化知识】- 经过整合的精华 │ ├── frameworks/ # 方法论、思维模型(由knowledge-consolidation生成) │ ├── insights/ # 独立的洞察卡片 │ └── people/ # 【核心】人物CRM档案库 └── 06-templates/ # 各种文档模板(PRD、会议纪要等)关键设计解读:
00-inbox是控制中心:所有配置和原始输入(如待处理的URL)先扔到这里。AI技能会从这里读取配置,并处理原始输入。01-daily是短期记忆:存放具有时效性的信息,如每日简报。定期(每周/每月)会被更高阶的技能分析、提炼,然后部分内容沉淀到05-knowledge。02-personal与03-professional分离:这是一个非常重要的隐私设计。你可以放心地在个人区域记录任何内容,并在调用团队相关技能时明确指定“仅搜索职业和项目区域”,确保私人信息不会意外泄露。05-knowledge/people/是社交图谱:这是COG最惊艳的功能之一。每当你通过meeting-transcript或team-brief技能提及一个人,系统会自动在people/下创建或更新该人物的档案。档案是分层的(Tier 3/2/1),随着证据积累自动丰富。这让你在与任何人会面前,能快速回顾其背景、工作风格和过往互动。
4. 核心技能实战:让AI为你工作
现在,你的COG已经就绪。让我们深入几个最常用、最能体现其价值的核心技能,看看它们在实际中如何运作。
4.1 每日核心循环:Braindump与Daily Brief
技能:braindump(脑力倾泻)这是你与COG最频繁的互动。任何时候,当你脑中闪过一个念头、一个待办、一个烦恼或一个灵感,就打开AI助手说:“我需要脑力倾泻一下”或“/braindump”。
实操过程:
- AI会引导你:“请说出或写下你现在的想法。”
- 你开始自由表达,比如:“突然想到我们产品登录页的转化率可能和按钮颜色有关,但没数据支持。另外,明天下午要和团队同步Q3目标,需要准备材料。哦对了,记得给妈妈买生日礼物。”
- AI会处理这段文本,并执行以下操作:
- 分类:判断“登录页转化率”属于
03-professional/braindumps/,“Q3目标同步”属于04-projects/your-project-name/,“给妈妈买礼物”属于02-personal/braindumps/。 - 提取行动项:识别出“准备Q3目标同步材料”是一个待办事项。
- 格式化与存储:在对应的Markdown文件中,以时间戳和清晰的结构记录下这些内容。对于行动项,它会使用
📅 2023-10-27这样的格式,这恰好与Obsidian的Tasks插件兼容,你可以在Obsidian中直接看到一个统一的待办仪表盘。 - 潜在关联:如果提到了某个项目或人物,它会在相应文件间添加内部链接。
- 分类:判断“登录页转化率”属于
避坑技巧:Braindump时,尽量用完整的句子描述上下文。与其说“按钮颜色”,不如说“关于产品官网登录页的CTA按钮颜色对转化率的影响的猜想”。前者对未来的你可能是天书,后者则保留了完整意图。
技能:daily-brief(每日简报)每天早上,用这个技能获取个性化的新闻情报。说“给我今日简报”或“/daily-brief”。
背后原理:这个技能并非简单爬取新闻。它结合了你00-inbox/interests.md中定义的兴趣关键词,调用worker-researcher工作者智能体,并行搜索多个信源(通常是高质量的科技媒体、博客、论坛)。然后,主导智能体(Opus)会综合这些结果,进行去重、验证来源(要求7天内的新鲜信息),并评估可信度,最后生成一份带有摘要、分析和个人相关性的简报,存入01-daily/briefs/。
我的使用体验:它帮我过滤掉了99%的噪音信息。我设置的兴趣是“AI Agent”、“Developer Tools”、“VC Landscape”。每天早上的简报通常包含3-5条真正相关、有深度的信息,并且会指出“这条可能影响你正在进行的XX项目”。这比我自己刷RSS或Twitter高效十倍。
4.2 团队智能中枢:Team Brief与Meeting Transcript
对于需要协作的从业者,这两个技能是神器。
技能:team-brief(团队简报)作为团队负责人,我每天下午会说一句:“团队简报”。接下来会发生:
worker-data-collector被激活,它使用Sonnet模型(便宜且快),并行执行:- 通过GitHub API,获取指定仓库过去24小时的Pull Requests、Issues和Commits。
- 通过Linear API,获取状态更新、新创建的任务和评论。
- 通过Slack API(如果配置),获取特定频道的高频讨论摘要。
- 通过PostHog API(如果配置),获取关键用户行为指标变化。
- 所有原始数据被写入
/tmp/下的临时文件。 - 主导智能体(Opus)读取这些文件,进行综合分析:
- 识别进展:“小张完成了用户认证模块的PR #123,已合并。”
- 识别阻塞:“‘支付集成’任务在Linear中状态仍为‘待开始’,负责人小李在Slack中提到等待第三方回复。”
- 识别风险:“PostHog显示新版本发布后,核心功能A的使用率下降了15%,需关注。”
- 生成行动项:“需要跟进小李,推动支付集成进度。”
- 最终生成一份简洁的Markdown简报。更厉害的是,如果配置了Linear双向同步,第3步识别出的行动项会被自动创建为Linear上的一个新Issue,并分配给对应的人。
技能:meeting-transcript(会议纪要处理)会后收到录音转写的文字稿(用Otter.ai或Rev.com),将其内容粘贴给AI,并说“处理这个会议纪要”。
AI会:
- 识别与会者,并更新
05-knowledge/people/下的对应档案。 - 提取明确的决策(“决定采用方案B”),并用特殊格式高亮。
- 提取行动项(“Alex负责在下周五前提交设计稿”),并关联到具体责任人。
- 分析团队动态(“小王对时间线表达了多次担忧”),作为软性信息记录。
- 将结构化后的内容存入
04-projects/[project-name]/meetings/目录。
从此,会议纪要从“查找困难的信息坟墓”变成了“可搜索、可行动的结构化数据库”。
4.3 高阶思维引擎:Weekly Checkin与Knowledge Consolidation
这是COG实现“自我进化”的关键。
技能:weekly-checkin(每周检视)每周五下午,运行此技能。AI会扫描01-daily/、03-professional/、04-projects/下过去一周的所有新内容。
- 它不是在简单汇总,而是在进行跨域模式识别。例如,它可能发现:“本周你在‘个人健康’(02-personal)中三次提到‘精力不足’,同时在‘职业发展’(03-professional)中两次提到‘项目A进度缓慢’。二者可能存在关联:当前工作负荷影响了你的个人状态。建议评估项目A的优先级或寻求协助。”
- 这种洞察是发散的、非线性的,往往能揭示你自己都没意识到的潜在问题或机会。
技能:knowledge-consolidation(知识整合)每月运行一次。这是“从信息到知识”的升华过程。AI会深度分析过去一个月积累的所有笔记,特别是03-professional/和05-knowledge/insights/中的内容。
- 主题聚类:将分散在不同笔记中、关于同一主题(如“用户 onboarding 优化”)的片段找出来。
- 框架构建:将这些片段整合、去重、补充,形成一个结构化的知识框架或方法论文档,存入
05-knowledge/frameworks/。例如,它可能生成一个名为User-Onboarding-Best-Practices.md的文档,包含原则、步骤、常见陷阱和案例。 - 更新人物档案:基于一个月的新互动,批量更新
people/目录下的档案,可能将一些人的档案从Tier 3升级到Tier 2。
我的体会:这个技能运行几次后,我发现自己竟然拥有了一个不断增长的、个性化的“商业知识库”。里面是我在工作中实际遇到和思考过的问题的结晶,而不是从书上抄来的理论。它的价值随着时间复合增长。
5. 产品经理专属工作流深度解析
COG为产品经理设计了一套完整的工作流技能链,覆盖了从市场研究到产品上线的关键环节。这套流程高度自动化且可追溯。
5.1 从研究到PRD:auto-research与generate-prd
技能:auto-research(自动研究)当你需要探索一个新领域或验证一个想法时,比如“研究一下AI代码测试工具的未来趋势”,你可以启动这个技能。
- 多智能体并行:这是COG中最复杂的技能之一。主导智能体会将大问题分解成多个子问题(如“当前主流AI测试工具有哪些?”、“它们的商业模式是什么?”、“开发者社区的反馈如何?”),然后同时启动多个
worker-researcher去并行搜索。 - 来源验证与综合:工作者们将带来源引用的结果写回。主导智能体再进行交叉验证、去重和综合,最终生成一份深度研究报告,保存在
03-professional/strategy/下。这份报告的质量远超普通AI聊天的一次性回答,因为它经过了多角度、多信源的核查。
技能:generate-prd(生成产品需求文档)基于研究或已有想法,你可以说“为‘项目仪表盘增加实时协作评论功能’生成PRD”。
- AI会调用
06-templates/prd-template.md作为基础框架。 - 它会引导你一步步填充背景、目标用户、用户故事、功能需求、非功能需求、成功指标等。
- 关键一步:审批门禁。在最终生成文档前,AI会总结核心内容并要求你确认:“即将生成一份包含X个核心功能的PRD,预计开发周期Y周。确认生成吗?”这避免了意外发布。
- 确认后,PRD被保存到
04-projects/[project-name]/目录。你可以选择手动或通过publish-to-confluence技能将其发布到Confluence。
5.2 从故事到发布:create-user-story与generate-release-notes
技能:create-user-story(创建用户故事)PRD完成后,下一步是拆解为用户故事。说“为‘实时协作评论功能’创建用户故事”。
- 智能拆解:AI会参考PRD,将大的功能需求拆解成具体的、可执行的用户故事(格式:作为[角色],我想要[目标],以便[价值])。
- 重复项检查:这是该技能的亮点。在创建每个故事前,它会调用
worker-data-collector去扫描你配置的任务管理系统(Linear, Jira, GitHub Issues),检查是否有类似或重复的故事已经存在。这极大地避免了任务冗余。 - 自动创建:确认后,故事可以直接创建到Linear或Jira中(如果配置了集成),同时在本地
04-projects/下保留一份Markdown记录,保持双向同步。
技能:generate-release-notes(生成发布说明)版本开发完成,准备发布时,运行此技能。你需要提供版本号(如v2.1)和GitHub的里程碑(Milestone)或Linear的周期(Cycle)。
worker-data-collector出动,从GitHub拉取该里程碑下所有已合并的Pull Requests,从Linear拉取该周期内关闭的所有Issue。- AI分析这些条目,自动分类(如“新功能”、“功能改进”、“Bug修复”、“内部变更”)。
- 它为每个条目撰写简洁、用户友好的描述(而不是直接使用晦涩的提交信息)。
- 最终生成格式优美的发布说明,可直接用于产品博客、用户通知或内部沟通。
5.3 知识沉淀与审计:update-knowledge-base与export-open-issues
技能:update-knowledge-base(更新知识库)每次发布后,运行此技能。AI会读取本次的发布说明和相关PRD、用户故事,然后自动更新05-knowledge/下的产品知识库。例如,它会将“实时协作评论功能”的详细说明、使用场景、API变更(如果有)整合到产品功能文档中。这确保了内部知识库与产品实际状态同步,新成员 onboarding 时看到的是最新、最全的资料。
技能:export-open-issues(导出未关闭问题)用于项目审计或向管理层汇报。该技能会扫描所有配置的任务管理系统,导出所有状态为“打开”或“进行中”的Issue,按项目、优先级、负责人等进行归类,生成一份清晰的汇总报告。这对于管理大型项目或跨团队协作至关重要。
这套组合拳,将产品经理从大量重复性、事务性的文档工作中解放出来,使其能更专注于真正的产品思考和策略制定。
6. 高级配置、维护与问题排查
要让COG长期稳定运行,并融入你的工作流,需要了解一些高级配置和维护技巧。
6.1 集成配置详解
COG的强大很大程度上依赖于与外部工具的集成。SETUP.md文件有详细说明,这里强调几个关键点:
- GitHub CLI (
gh) 是基石:许多技能(如team-brief,generate-release-notes)都依赖它。确保安装并登录 (gh auth login)。在COG中,你需要将GitHub仓库信息写入00-inbox/integrations.md。 - Linear集成(双向同步的魔法):
- 去Linear设置中创建一个API Key。
- 在
integrations.md中配置Key、团队名称和项目名称。 - 关键:你需要告诉COG哪些Linear项目需要同步。可以在
integrations.md里以列表形式写明,例如linear_projects: ["Product", "Engineering"]。 - 配置成功后,
team-brief技能不仅能读取Linear,还能将简报中识别的行动项写回Linear,形成闭环。
- iCloud同步(多设备无缝衔接):将整个COG仓库放在iCloud Drive(如
~/Library/Mobile Documents/com~apple~CloudDocs/My-COG-Brain)。这样,你在Mac上记录的Braindump,可以在iPhone的Obsidian Mobile中查看和搜索。Obsidian Mobile对Markdown的支持非常好,且能识别COG使用的📅待办格式。
6.2 框架更新与自定义的平衡
COG的框架(技能定义、脚本、文档)和你的内容(笔记、数据)是分离的。更新框架不会碰你的数据。
更新方法:
- 推荐:直接对AI说“更新COG”或运行
/update-cog技能。这会触发一个交互式更新脚本。 - 手动:运行
./cog-update.sh脚本。常用参数:./cog-update.sh --check:仅检查是否有更新,不执行。./cog-update.sh --dry-run:模拟更新,显示哪些文件会被更改。./cog-update.sh --force:强制更新所有框架文件(谨慎使用,会覆盖你的自定义)。
如何处理冲突:如果你修改过某个技能文件(比如AGENTS.md),更新时脚本会提示你:“发现本地修改,请选择:(K)eep yours, (U)se upstream, (B)ackup and update”。通常,对于核心技能文件,建议选择B,它会将你的版本备份为.backup文件,然后应用上游更新。之后你可以手动比较备份文件,将有价值的自定义修改合并到新版本中。
6.3 常见问题与排查实录
以下是我在长期使用中遇到的一些典型问题及解决方法:
问题1:技能执行失败,AI回复“我不确定如何执行这个操作”。
- 排查:首先检查你是否在正确的项目目录下运行AI。Claude Code等工具需要打开COG项目文件夹,才能识别
.claude/skills/下的技能定义。 - 解决:确保终端当前路径在COG根目录,或在AI编辑器中正确打开了项目。
问题2:team-brief技能无法获取GitHub或Linear数据。
- 排查:检查
00-inbox/integrations.md文件中的配置项是否正确无误。尤其是API Key和团队/项目名称。 - 排查:运行
gh auth status和测试Linear API Key是否有有效权限。 - 解决:重新运行
onboarding技能可以重新引导配置集成。
问题3:人物CRM没有自动创建或更新档案。
- 排查:检查
meeting-transcript或team-brief生成的报告中,人名是否被正确识别。有时中文名或非标准英文名可能识别有误。 - 排查:查看
05-knowledge/people/目录下是否有对应的.md文件。 - 解决:可以手动在
people/目录下创建一个以人名为文件名的.md文件,COG后续会自动更新它。确保人名在文档中的拼写一致。
问题4:文件越来越多,如何快速找到某个内容?
- 推荐方案:使用Obsidian作为你的Markdown编辑器。Obsidian的全局搜索、反向链接和图谱功能,与COG的文件夹结构和内部链接完美契合。你可以瞬间找到所有提到某个概念或人物的笔记。
- 备用方案:使用系统自带的文件搜索(如Mac的Spotlight),或
grep命令在终端中搜索。
问题5:AI响应慢或成本高。
- 分析:复杂的技能如
auto-research或comprehensive-analysis会调用多次API,并使用更贵的Opus模型,确实耗时耗资。 - 优化:
- 对于日常的
braindump和daily-brief,可以指定使用更快的模型(如在Claude Code中设置默认模型为Haiku)。 - 将大型、非紧急的分析任务(如月度
knowledge-consolidation)安排在API使用低峰期进行。 - 充分利用工作者智能体架构,它已经将数据密集型任务分配给了更便宜的Sonnet模型,这是最大的成本优化。
- 对于日常的
7. 我的使用心法与未来展望
使用COG近三个月,它已经从一个新奇工具变成了我数字工作流中不可或缺的“外挂大脑”。几点最深切的体会:
第一,信任的建立是渐进的。一开始,我并不放心把所有想法都交给AI分类。我会先手动检查它生成的Braindump文件。但几周后,我发现它的分类准确率极高,提取的行动项也基本靠谱。这种信任让我更愿意进行频繁、无负担的记录,而这正是系统能够“学习”和“进化”的基础。启动阶段,建议用一个小号或新建的目录进行试验,建立信心。
第二,定期“维护仪式”比想象中重要。COG虽然号称“零维护”,但为了让它更好地为你服务,我养成了两个小习惯:1) 每周一早上运行weekly-checkin,回顾上周模式;2) 每月初运行knowledge-consolidation,进行知识沉淀。这两个动作就像给大脑做定期的“碎片整理”和“知识结晶”,投入时间很少,但长期回报巨大。
第三,从“记录”转向“提问”。最大的思维转变是,我不再想着“我要把这个记下来”,而是想着“我想让AI帮我处理什么信息?”。是分类一个想法?是分析一次会议?还是研究一个市场?这种从被动记录到主动指挥的转变,极大地提升了信息处理的主动性和价值密度。
关于未来,COG的路线图已经描绘了令人兴奋的方向。我个人最期待的是知识图谱可视化。目前所有关联都藏在Markdown链接和文件夹结构中,如果能有一个图形化界面展示概念、项目、人物之间的关系网络,那将是对理解复杂信息网络的又一次飞跃。此外,移动端优化的命令也很有必要,毕竟灵感常常在通勤路上或睡前闪现。
最后想说的是,COG不是一个“安装即用”的傻瓜软件。它更像一套乐高积木或一个开源框架,需要你花一点时间搭建和适应。但一旦它融入你的工作流,那种由AI驱动的、持续进化的知识管理系统带来的流畅感和智力增强,是任何静态工具都无法比拟的。它让你真正感受到了与一个不断成长、不断了解你的智能伙伴协同工作的未来。
