Karpathy 的 LLM Wiki 帖子获得了 99,000+ 收藏。Graphify 在 48 小时内发布,获得了 27,000+ 额外关注。同周有多个实现版本病毒式传播。
需求是显然的。但大多数人会收藏它,觉得「挺酷」,然后永远不设置。
花 20 分钟今天设置,下个月你就会拥有一个任何搜索引擎和通用 AI Prompt 都无法复制的知识积累。它会知道你的声音、你的数据、你的模式和你的品味。
核心架构
给每个员工配备一个 AI Agent,不是孤立的,而是全部连接到共享的「编译后」知识库。
这个模式可以 scales:一个人 → 小团队(5-10人共享一个知识库)→ 组织(50+ 人,Agent 按角色调优从编译情报中读取)。
核心结构:
raw/ → 混乱的收件箱,任何东西都可以丢进来
wiki/ → 编译后的结构化页面,平坦结构
wiki/index.md → 总索引,带 TLDR
Agent 命令:
/wiki-ingest→ 把 raw/ 处理成 wiki 页面/wiki-query→ 提问,获取带引用的答案/wiki-explore→ 浏览和验证页面/wiki-lint→ 捕捉矛盾、过时内容
完整五步设置
第一步:克隆仓库(2 分钟)
git clone https://github.com/shhk/llm-wikid.git my-wiki
cd my-wiki
用 Obsidian 打开文件夹作为 Vault。
第二步:运行 Agent(3 分钟)
在文件夹里打开 Claude Code(或任何能读取 markdown 并运行 bash 的 Agent),它读取 CLAUDE.md——这是控制一切的结构定义文件。
第三步:填满它(10 分钟)
- 从设置里请求你的 X 存档
- 安装 Obsidian Web Clipper 扩展,开始收藏推文、文章、值得保留的 thread
- 坐下来把脑子里的东西写 10 分钟,把书签倒进去,任何感觉 80% 相关的东西都进 raw/
第四步:运行 ingest(5 分钟)
> /wiki-ingest
Agent 做的事情:分类整理收藏、抓取 URL 完整内容、下载并分析图片、按类型分类每个来源、构建带交叉引用的 wiki 页面、在每个页面上添加反论据和数据空白、更新总索引。
第五步:打开图谱
打开 Obsidian 的图谱视图。你的想法、你关注的人、你用的工具、你关心的概念,现在在一个可视化网络里链接起来了。
查询示例
> /wiki-query 什么内容格式获得了最多收藏?
Reading wiki/index.md... scanning 47 TLDRs
Reading wiki/content-performance.md
Reading wiki/bookmark-analysis-march.md
Reading wiki/thread-vs-single-tweet.md
Answer:
带编号列表的 Thread 获得的收藏是单条推文的 3.2 倍。
视觉分解(终端截图、流程图)平均 847 收藏,纯文字 312 收藏。
收藏最多的前 5 条帖子都是分步骤指南或工具对比。
Sources: [[content-performance]], [[bookmark-analysis-march]], [[thread-vs-single-tweet]]
→ Filed as wiki/bookmark-formats-query.md
每个答案都会归档回去。下次关于内容表现的查询也会拉取这一条。
质量控制比任何地方都重要
因为在这里盲目信任 AI 最危险:
偏见检查:每页强制加入反论据和数据空白。如果丢进去 10 篇都说同样事情的 articles,wiki 会标注,同时标记这个画面缺少什么。
验证门禁:每个 AI 生成的页面以 explored: false 开头。只有人类才能标记某样东西为已审核。你始终知道什么是经过人类验证的,什么还没有。
置信度标签:每页标记高/中/低/不确定。Agent 必须诚实说明其知识的支撑强度。
何时扩展
当页面达到 300+ 时,安装 qmd(Tobi Lutke 开发),获得本地混合搜索(BM25 + 向量检索 + LLM 重排)。qmd 有 MCP 服务器,Agent 可以把 wiki 当作原生工具来搜索。
然后把知识层连接到其他 Agent:一个写作 Agent 从中读取,一个研究员往里输入,一个内容策略 Agent 查询它。知识层是共享大脑,让所有 Agent 都有用。
本质
80/20 规则适用:让 AI 做 80% 的组织、编译和交叉引用,用你的品味来处理最后 20%——策展、验证、只有你能看到的连接。
知识层就是这样把你的品味编码进去,让那 80% 越来越好。
Medvi 是证明:1.8B 美元年收入运行率,2 名员工,零 VC。AI 处理代码、创意、语音、客服。知识层是前提。没有它,Agent 需要持续的人类指导。有了它,它们从编译的组织智能中运作。
现在花 20 分钟设置的人,将在下个月获得一个复合知识库。每等待一周,就是一周的复合增长你拿不回来。
这套系统的核心是「编译」而非「存储」——原始材料变成可被引用的结构化知识页面,才是 Agent 可用的知识。raw/ 是垃圾桶,wiki/ 才是资产。