LLM-Wiki 深度研究:Karpathy 的知识编译革命
一、核心思想:从「解释执行」到「编译执行」
1.1 RAG 的根本缺陷
传统 RAG(检索增强生成)的工作流:
用户提问 → 向量检索 → 片段召回 → LLM 临时拼凑 → 答案生成 → 丢弃
问题:每次查询都在从零重新推导知识。没有积累。
1.2 LLM-Wiki 的核心洞察
Karpathy 的解决方案:让 LLM 增量构建并维护一个持久的 Wiki —— 一个结构化的、互相链接的 Markdown 文件集合,位于用户和原始源文件之间。
关键差异:Wiki 是一个持久的、复合增长的工件。
- 交叉引用已经存在
- 矛盾已经标注
- 综合已经反映了你读过的所有内容
1.3 类比:解释器 vs 编译器
| 维度 | RAG(解释执行) | LLM-Wiki(编译执行) |
|---|---|---|
| 知识组装时机 | 查询时 | 摄入时 |
| 状态性 | 无状态 | 有状态 |
| 交叉引用 | 临时发现 | 预构建 |
