这条推文Thread讲的是如何用Claude Code + Obsidian搭建真正的"第二大脑"。核心不是工具,是工作方式。
RAG的局限
大多数人和LLM处理文档的方式是RAG:上传文件,检索相关片段,生成答案。问题是:每次问答都是重新发现知识,没有积累。问一个需要综合五份文档的问题,LLM每次都得重新找、重新拼。什么都没有沉淀下来。
LLM Wiki的思路完全不同:LLM增量构建和维护一个持久的Wiki,代替每次查询时从原始文档重新检索。
关键差异在于:Wiki是一个持久、复利的工件。 跨引用已经在那里了,矛盾已经被标记了,综合已经反映了你读过的所有东西。Wiki随着每添加一个来源、每问一个问题而变得越来越丰富。
三层架构
Raw sources(原始来源):你策划的源文档集合——文章、论文、图片、数据文件。这些是不可变的,LLM只读不写。这是你的信任源。
The wiki(Wiki):LLM生成的Markdown文件目录。摘要、实体页面、概念页面、比较、概述、综合。LLM完全拥有这一层。它创建页面、在新来源到达时更新它们、维护交叉引用、保持一切一致。你读它;LLM写它。
The schema(模式):一个文档(如Claude Code的CLAUDE.md或Codex的AGENTS.md),告诉LLM Wiki的结构、约定是什么,以及在摄取来源、回答问题或维护Wiki时要遵循的工作流。这是关键配置文件。
三个核心操作
Ingest(摄取):你把新来源放入raw集合,告诉LLM处理。LLM读来源、与你讨论关键要点、在Wiki中写摘要页面、更新索引、更新相关实体和概念页面、在日志中追加条目。一份来源可能涉及10-15个Wiki页面。
Query(查询):你针对Wiki提问。LLM搜索相关页面、读取它们、用引用综合答案。重要发现:好的答案可以作为新页面存档回Wiki。你问过的比较、分析、发现的新连接——这些有价值,不应该消失在聊天历史里。这样你的探索就像摄取的来源一样在知识库中复利。
Lint(检查):定期让LLM对Wiki进行健康检查。查找:页面间的矛盾、新来源已经取代的过时声明、没有入站链接的孤立页面、被提及但缺乏自己页面的重要概念、缺失的交叉引用、数据空白。LLM善于建议新问题和需要寻找的新来源。
为什么这个系统能持续
维护知识库最繁琐的部分不是阅读或思考,而是记账工作——更新交叉引用、保持摘要最新、注意新数据何时与旧声明矛盾、维护数十个页面间的一致性。人类放弃Wiki是因为维护负担增长快于价值。LLM不会无聊、不会忘记更新交叉引用、一次可以修改15个文件。维护成本接近零,Wiki保持最新。
人类的任务是策划来源、指导分析、问好问题、思考一切意味着什么。LLM的任务是其他一切——总结、交叉引用、归档和记账。
最简单的起步
不需要任何现有材料。打开Claude聊天,谈二十分钟,你的工作、你的目标、你在构建什么、你在解决什么。保存那段对话作为你的Memory文件,足够让你的第一次会话感觉Claude真的了解你。
Vault不需要完整才有价值。它只需要真实。
这条Thread的真正价值不是那个具体配置,是它解决了一个经典问题——"第二大脑为什么总是死掉"。答案很简单:人类讨厌维护,LLM不讨厌。所以正确的解法不是让人做更多维护工作,而是让人做curation(策划来源、问好问题),让LLM接管所有记账工作。Karpathy这个模式把维护成本压到接近零,这才是系统能持续运转的真正原因。