Andrej Karpathy 分享了一个用法:不用 LLM 搜索,而是用它来维护一个个人知识库——一个会自己写、自己更新的 wiki。Carlos Azaustre 把这个思路在 OpenClaw 上完整实现了。
三个数据源自动流入
X 书签(每 6 小时):Python 脚本下载新书签,LLM 按主题分类追加到对应 wiki 文章。1055 条书签处理完毕,12 篇 wiki 持续更新。
LinkedIn 帖子(每周日):用 Docker + Chromium + Playwright 通过 Chrome DevTools Protocol 抓取已登录状态的 Saved Posts。技术细节折腾,但跑通了。
Telegram 语音笔记(随时):走路时录一条语音,OpenClaw 接收后用 faster-whisper 本地 CPU 转录,LLM 分类后存入 raw/voice-notes/,再更新对应 wiki 文章。知识摄入零摩擦。
12 篇 wiki 的现状
AI & LLMs | 297 sources AI Agents & Coding Tools | 141 sources JavaScript & TypeScript | 147 sources React & Next.js | 110 sources Backend & Databases | 148 sources Dev Tools & Productivity | 103 sources Software Architecture | 31 sources Content Creation | 41 sources Career & Developer Life | 87 sources CSS & Design | 45 sources Linux, DevOps & Infra | 34 sources Business & Indie Hacking | 17 sources
闭环:output 必须反馈回 wiki
每次 output 都要列出"本次更新了哪些 wiki 文章",如果列为空要解释原因。这样 feedback loop 才真正闭合,否则系统只是在积累文字,不会变聪明。
每月健康检查扫描整个 wiki,找出矛盾、找不到来源的断言、被提及但从未有专属文章的主题。每周 linting 检查重复文件。
这套系统的核心价值不是收集,是分类和上下文。1055 条书签如果不分类,就是噪音;分类后按主题组织,每个主题的真实知识轮廓才浮现出来。</parameter>