开源 | ai-memory v2.6.2:不用配 API Key,一行命令把 Cursor 对话变成结构化知识库
开源 | ai-memory v2.6.2:不用配 API Key,一行命令把 Cursor 对话变成结构化知识库
开源地址:https://github.com/hyxnj666-creator/ai-memory
npm:npx ai-memory-cli@latest
协议:MIT
一行命令,直接跑,不需要任何配置
很多工具的"快速上手"其实并不快——要先注册账号、申请 API Key、填写配置文件,折腾半天才能跑起来第一个 demo。
ai-memory v2.6.2 把这个门槛彻底去掉了:
npx ai-memory-cli extract就这一行。不用配.env,不用申请任何 Key,工具内置了免费模型,打开终端直接跑。
它能做什么?
ai-memory 直接读你 Cursor / Claude Code / Windsurf / Copilot / Codex 里的聊天记录,用 LLM 提取出结构化知识,保存成本地 Markdown 文件:
.ai-memory/ conor/ decisions/ ← 技术决策 architecture/ ← 架构设计 conventions/ ← 编码规范 todos/ ← 待办任务 issues/ ← 发现的问题每条记忆都是一个独立的 Markdown 文件,可以 git 追踪、可以 code review,数据完全在本地。
提取完之后,下次新开 AI 对话,一行命令把历史上下文复制进去:
npx ai-memory-cli context--copy或者生成AGENTS.md,让 Cursor / Claude Code / Windsurf 每次自动读取:
npx ai-memory-cli rules--targetagents-md内置免费模型的细节
v2.6.2 内置了 SiliconFlow 的 DeepSeek-V4-Flash 作为默认模型,适合体验和小规模提取:
- 每次运行最多处理2 个对话
- 每个对话最多处理20 个文本块(超出部分均匀采样,保证覆盖全文)
- 完全免费,不需要你的任何 Key
如果你有大量历史对话要提取,配上自己的 Key 即可解锁不限量:
# .env.local(放在项目根目录)OPENAI_API_KEY=sk-...# 兼容任意 OpenAI 格式的代理,比如硅基流动、DeepSeek 官方等OPENAI_BASE_URL=https://api.siliconflow.cn/v1实际跑一次看看
查看可提取的对话
npx ai-memory-cli list输出大概长这样——每行一个对话,显示编号、日期、消息数和标题:
# Date Msgs Title 1 2026-04-25 47 OAuth 登录方案讨论 2 2026-04-24 83 账单模块 Event Sourcing 设计 3 2026-04-22 31 前端路由重构 ...选几个提取
# 用内置免费模型,直接跑(最多 2 个对话)npx ai-memory-cli extract--pick1,2执行过程中会显示进度,每个对话分块并行处理,完成后输出汇总:
✔ conor/decisions/2026-04-25-adopt-oauth-pkce.md ✔ conor/architecture/2026-04-24-event-sourcing-billing.md ... Extracted 47 memories (decision: 18 | architecture: 12 | todo: 9 | issue: 6 | convention: 2) Quality filter removed 3 low-quality items打开可视化 Dashboard
npx ai-memory-cli dashboard浏览器打开http://localhost:3141,可以看到:
- Conversations 页面:每个对话产出了多少条记忆,类型分布一目了然
- Overview 页面:总记忆数、按类型/时间线/作者的分布统计
- Quality 页面:被过滤掉的低质量条目,以及保留率
和其他 AI Memory 工具的区别
市面上的 Memory 工具(mem0、Letta、Zep 等)通常需要你在代码里手动调 API:
# 其他工具的用法——需要改你的代码client.add("用户说了什么",user_id="...")ai-memory 完全不一样:不需要改任何代码,直接读编辑器已有的聊天记录。
| 对比维度 | ai-memory | 其他 Memory 工具 |
|---|---|---|
| 数据来源 | 直接读编辑器聊天记录 | 需要手动调 API 写入 |
| 存储格式 | 纯 Markdown,放在 git 里 | 专有数据库 / 云端 |
| 隐私 | 完全本地,数据不出机器 | 大多数需要上传到云 |
| 版本控制 | git diff可读 | 只有最新状态 |
| 零代码改造 | 不需要改任何代码 | 需要在应用代码里埋点 |
| 跨工具 | Cursor / Claude Code / Windsurf / Copilot / Codex | 通常绑定一个平台 |
更多命令
# 增量提取(只处理新增对话,定期运行)npx ai-memory-cli extract--incremental# 搜索历史决策(含 git 变更轨迹)npx ai-memory-cli recall"OAuth"# 只加载某一个对话的上下文npx ai-memory-cli context --source-id e0ef3946--copy# 注册每天定时自动提取npx ai-memory-cli init--schedule# 扫描最近 git commit,自动关联实现了哪条记忆npx ai-memory-clilink# 不想安装,先试用一下npx ai-memory-cli try技术信息
- 语言:TypeScript,Node.js 18+
- 提取质量:CCEB 基准测试 F1 76.2%(gpt-4o-mini,30 条手写 fixture)
- 测试覆盖:585 个单元测试
- 本地优先:支持 Ollama / LM Studio 完全离线运行
- MCP Server:内置 MCP 服务,Cursor / Claude Code 可直接通过 MCP 访问记忆
开源信息
- GitHub:https://github.com/hyxnj666-creator/ai-memory
- npm:https://www.npmjs.com/package/ai-memory-cli
- 版本:v2.6.2
- 协议:MIT License
如果你在用 Cursor / Claude Code 做开发,希望这个工具能帮你把散落在各个对话里的知识沉淀下来。欢迎 Star、提 Issue 和 PR!
