上周Karpathy提出用LLM维护知识维基的方案,48小时内GitHub上就出现了至少六个实现版本。Hermes Agent把它做成了内置Skill;有人直播20分钟跑通;Ali Abdaal称之为「大脑」;Garry Tan说要把个人Agent改造成Vannevar Bush的Memex。

工程圈反应快,是因为这个思路对程序员来说太直观了:原始素材(文档、代码注释、技术论文)经过LLM编译,变成带双向链接的知识库,随时可查询。但这篇文章的作者认为,真正从这个模式里获益最大的,不是工程师群体——是产品经理。

捕捉了311条笔记,然后呢

作者在两年里积累了311条PM笔记:用户访谈记录、Teresa Torres的发现方法论文章、Lenny播客摘要、Doshi的推文串、Melissa Perri的战略框架、OKR模板、干系人管理策略……读的时候都感觉有用,读完就再也没翻过。

问题从来不在「捕捉」,整个笔记工具行业花了十年告诉你的「捕捉很难」是个伪命题。真正的问题是检索——Tiago Forte在《构建第二大脑》里早就说过:被捕捉的知识价值为零,只有在需要的时刻被调取才有价值。

Forte的解法是渐进式总结,反复回顾、层层压缩。但大多数人(包括作者自己)在第一次标注之后就停下了,笔记就此沉睡。

Karpathy的解法:编译,而不是压缩

Karpathy的LLM维基模式给出了另一种答案:不用让你逐条手動压缩,而是把整个文件夹交给LLM做一次合成,输出一个新层次——不是摘要,而是概念文章,能跨多条笔记建立链接,标出来源间的共识与分歧,指出你的知识盲区。

作者对自己的311条PM笔记跑了这个模式。结果:系统扫描全部文件,按内容相似度分成12个概念簇(发现、战略、优先级排序、干系人管理、产品感、指标等),最终写出34篇合成概念文章。

每篇概念文章陈述的是一条主张(claim),而不是一个主题。比如「发现与用户研究」这个簇,输出的概念标题是:「机会解决方案树(OST)优于功能清单作为发现结构,因为它让假设可追溯至客户机会。」然后聚合所有相关笔记的内容,标注来源,标出分歧点,标注缺失的视角。

最意外的发现:跨越来源的隐性共识

有三条来源完全不同的笔记——一篇Teresa Torres的文章、一个John Cutler的推文串、一套课程笔记——都得出了同一个结论:问题空间和方案空间必须保持分离。作者在不同时间读过这三条,从未自己发现这个联系。合成层让这种重叠浮现了,因为它是按概念而非来源分组的。

系统还发现了一个作者自己没注意的盲点:战略簇里有28条笔记在讲「好战略是什么样的」,但只有2条在讲「六个月后怎么判断战略是否有效」。系统直接把这个标为知识缺口——定义强,评估弱。这个缺口恰好对应了作者工作中一直在遇到却无法清晰命名的问题。

三个操作,构建在彼此之上

Compile(编译)——读取原始文件夹,产出三个文件:

  • INDEX:每条笔记一句话论点摘要(这条笔记主张什么,而非这条笔记讲了什么)。311条笔记有了可一目浏览的索引。
  • CONCEPTS:每个主要概念一篇合成文章,包含交叉引用和争议点。
  • CONNECTIONS:用语义搜索找到可能在其他文件夹里相关但未被手动链接的笔记。

INDEX是日常使用价值最高的。当你在做发现相关的问题时,扫一眼INDEX里的发现簇,几秒内定位到最相关的三条笔记,只读那三条。文件夹终于有了它缺失的目录页。

Lint(整理)——把图书馆学的剔旧规则引入数字笔记。图书馆用CREW体系(MUSTIE准则:误导性、丑陋、过时、微不足道、无关紧要、别处已有)来定期剔除馆藏。Lint把这个逻辑搬到你的知识库:找出孤儿笔记(没有任何链接指向它)、图片笔记(搜索引擎读不到图片文字)、近似重复、失效链接、缺失元数据的笔记。系统会给整个文件夹打健康分。作者的PM文件夹首次得分73——109条笔记缺失元数据,9条是纯截图没有任何文字。

Query(查询)——用自然语言提问,从合成层获得带引用的回答。比如问「我的笔记里对优先级框架及其局限性的看法是什么」,系统返回一篇综合回答,引用具体笔记,并给出可点击的维基链接。如果答案有价值,直接存为永久Wiki页面。知识库在使用中持续增长——再加上qmd的语义搜索能力,这套系统的可查询性随时间不断提升。

PM没有类型系统

工程师的知识有一部分编码在代码本身——类型系统、文档生成器、测试套件。但PM没有这种「编译器」来检查你的战略是否与OKR框架一致、你的发现结论是否真的支持你在优先的功能。

被编译的知识层无法替代你的判断,但它能做一件具体的事:让你的过往学习在需要的时刻可查询。当你在准备战略复盘时,问一句「我的笔记里关于好战略的看法是什么」,得到的答案来自你真正读过的框架和文章,而不是LLM基于训练数据的泛泛而谈。

作者认为,PM版的价值比工程师版更大,因为PM知识的结构化程度天然更低。工程师关于代码库怎么运作的知识,部分已被代码本身编码;而PM关于客户需要什么、市场什么样、哪些赌注值得下的知识,散落在笔记、聊天记录和几个月前的对话里。把这些编译成可查询层,是把你的知识从「只存在于自己脑中」变得可迁移的唯一路径。

怎么做

不需要买PM OS或任何特定工具。核心模式在任何LLM加一个Markdown文件夹就能跑。Karpathy最初的方案用三个目录:

  1. raw/——你的原始笔记
  2. wiki/——LLM编译输出到这里
  3. outputs/——查询结果

把Claude Code或Cursor指向raw目录,给出指令:扫描所有文件、按概念分组、写出合成文章、且要陈述每条笔记的主张而非总结其内容。输出质量的关键在于那条指令:「写出笔记主张了什么,而不是总结笔记覆盖了什么。」

更完整的版本加上Lint层(找孤儿笔记、检查缺口、追踪健康度)和Query层(提问、获得带引用回答、把答案存回)。这就是PM OS 2.0几周后将发布的内容——现在是99美元一次性购买,之后会转为199美元/年订阅。