这个组合最近在各个平台爆火,核心逻辑一句话:让 Claude Code 接管你的 Obsidian 笔记库,成为一个不断进化的个人知识中枢。
RAG 的根本缺陷
大多数人和 LLM 的交互模式是 RAG:上传一堆文件,问问题时 LLM 检索相关段落,生成答案。每次对话都是从零开始,没有积累。
这个模式的问题是:问一个需要综合五份文档的深问题,LLM 每次都得重新找碎片、重新拼凑。NotebookLM、ChatGPT 文件上传、大多数 RAG 系统都是这样工作的。
Karpathy 提出的解法更聪明:让 LLM 在你和原始文档之间建一个持久化的 Wiki。
持久化 Wiki 的思路
当你往这个系统添加一份新文档时,LLM 不会只是索引后等待检索。它会主动阅读它,提取关键信息,然后把这个信息整合进已有的 Wiki——更新实体页面、修订主题摘要、标注新旧数据之间的矛盾。知识被编译一次,然后持续保持最新,而不是每次查询都重新推导。
类比一下:RAG 是每次用完就扔的草稿纸,这个 Wiki 是你持续维护的笔记本。
搭建方法
总共四步,全程不超过 5 分钟:
第一步:下载 Obsidian,建立一个 Vault(本质上就是一个文件夹,用来存放所有 markdown 文件)。
第二步:Claude Code 桌面应用,在主聊天框点"Select Folder",指向你的 Obsidian Vault。
第三步:把 Karpathy 的 system prompt 粘贴进去。
核心指令大概是这个意思:把你当作一个知识管理者,用户的文档库是原材料,你的职责是维护一个持久化的 Wiki,每次添加新材料都要更新相关页面、标注矛盾、保持体系一致。
第四步:往 Vault 里扔你的各种素材——文章、笔记、想法、会议记录都行。
这个系统能做什么
每日汇总:每天在 Obsidian 里写日记,Claude Code 读取后自动做综合分析,比单独的 RAG 系统理解得更深。
构建个人 Wiki:让 Claude Code 帮助把笔记结构化,建立实体页面和关联关系,形成一个活的知识网络。
超级 Prompt 上下文:把个人生活、商业计划、写作素材都喂给 Claude Code,它就能生成高度个性化的输出——因为它掌握的是你持续更新的完整上下文,而不是每次临时丢进去的碎片。
发现知识盲区:Obsidian 有一个"Orphans"功能,可以找出没有任何连接的笔记节点——也就是你的知识体系里还没被整合的角落。
不适合谁
不擅长可视化的人:这个系统最大的价值在于可视化你的数据,如果不关心这个,收益有限。
不想维护数据库的人:虽然维护成本不高,但如果你不往 Vault 里持续输入内容,它就毫无用处。
存储空间紧张的人:Obsidian 的 MD 文件会占用设备空间。
Karpathy 这套思路的精髓不是某个工具或某个 prompt,而是"让知识积累发生在一个地方"这个设计选择。大多数人用 AI 的问题是每次对话都在重新发明轮子——这个系统强制你在一个固定地方持续沉淀,长远来看是真正能拉开差距的习惯。