Claude 现在的 ARR 增速是每天增加 3.235 亿美元,已经在营收上超过了 ChatGPT。Ruben Hassid 几个月来一直在劝所有人从 ChatGPT 切换到 Claude,现在终于发生了一—因为 Cowork。

Cowork 是关于怎么配置你的文件夹的。因为每次在 Cowork 里开新任务,都是这样的流程:读文件夹,然后开始工作。文件夹怎么建,就是这套系统的核心。

三个文件夹的结构

根文件夹叫 Claude Cowork,里面三个子文件夹:

ABOUT ME——放 Cowork 会自动读取的文件。 OUTPUTS——Cowork 的输出自动存在这里。 TEMPLATES——你最好的工作样本,Claude 可以复用结构。

ABOUT ME 里的三个核心文件

第一个是 about-me.md。这是 Cowork 每次启动时第一个读的文件,用来让 Claude 知道你是谁、你怎么思考、你希望它怎么为你写。Ruben 踩过的坑:之前写了一版超长超复杂的,结果吃掉了 22000 token 的上下文窗口——Claude 在回答任何问题之前都得先把这些全部读一遍。所以现在他的版本精简到了 2000 词以内,方法是提取模式、扔掉原始对话记录。信息量几乎一样,但噪音少了 10 倍。

如果已经有一版,可以直接让 Cowork 帮你精简:用 AskUserQuestion 问你怎么删减,直到整份文档变成精华。如果没有,从零开始的话,让 Cowork 用 20 个问题做访谈,然后编译成不超过 2000 token 的 about-me.md。问题覆盖:你是谁(角色、工作、受众)、你怎么工作(工具、流程、审查方式)、什么是好工作(标准、案例)、你讨厌什么(行业陋习、AI 错在哪里)、你的规则(硬线、不可商量的事)、你的观点(行业里别人会反驳你的看法)。

第二个是 anti-ai-writing-style.md。这个文件说的是你讨厌的 AI 写作模式——哪些词让你 CRinge(delve、harness、tapestry 这类)、哪些句式让你受不了("this isn't X, this is Y" 的 reframe 模式)、段落超过 3 句就不读。没有这个文件,Claude 写出来的东西听起来像 Claude。有了这个文件,它写出来的东西听起来像你——而且还避开了你讨厌的那些部分。

第三个是 my-company.md。你的目标、你的策略、你最近在专注什么、你在对什么说不。Ruben 的有每个平台的受众目标(100 万 Substack 订阅、100 万 LinkedIn 粉丝)、咨询业务线(工作坊、全面部署、AI sprint、fractional chief of AI),还有一个"我在对什么说不"的分区。这个文件每个季度更新一次就行。Cowork 不需要知道你周二的 deadline,它需要知道你的北极星。

Global Instructions:让 Cowork 知道什么时候读什么

Global Instructions 是一个持久 prompt,Cowork 在每个任务之前都会读。在 Settings → Cowork → Edit Global Instructions 里设置。

核心逻辑是:ABOUT ME 里的三个文件每次任务前都读,OUTPUTS 和 TEMPLATES 只有你明确指定时才读,所有交付物保存到 OUTPUTS/[项目名]/ 下,如果 brief 不清楚就用 AskUserQuestion 提问,不要用废话填补空白,不要过度解释,直接交付。

这个设置的关键:三个文件加起来控制在 6000 token 以内,Cowork 会完整读所有内容。每个 session 都从零开始了解你是谁,不用重新解释任何事。如果文件太大,Cowork 开始 summarising 而不是 carefully reading,上下文质量就下降了。

Wispr Flow:说话比打字快 4 倍

Cowork 的瓶颈不是技术,是你打字的速度。你每分钟能打 60 个词,但说话可以说 150 个。Wispr Flow 是一个语音输入工具,按住一个键说话,文字就出现在任何光标位置——包括 Cowork 的输入框里。免费额度每周 2000 词,够测试用。

实际工作流:不用打字说"我需要一条 LinkedIn 帖子",而是直接开始说:"我最近发现了……我想多讲讲……但首先我需要确认……所以也许我们应该从……开始……最后用……做结尾"。Wispr Flow 把你说的转成文字,Claude 读取,然后你点选项或者继续用语音补充具体指令。语音反馈比打字反馈更丰富——因为你是个话多的人,自然会说更多上下文。

Token 节省的四个技巧

第一个:消息 30 比消息 1 贵 31 倍。Cowork 不按消息计数,按 token 计数——每次发消息,Claude 都会把整个对话历史重新读一遍。20 条消息大概烧掉 105K token,30 条烧掉 232K。当 Cowork 出了问题,不要在同一条 thread 里继续发消息纠错,而是在更早的消息上点"Restart the conversation from here",从那个点重新开始,token 消耗大幅降低。

第二个:长对话是 token furnace。有开发者追踪自己的用量,发现 98.5% 的 token 消耗在重新读历史,只有 1.5% 真正用在输出上。当 session 变长,让 Claude 总结所有内容,复制总结,开新 session,把总结作为第一条消息粘贴进去——保留上下文,扔掉膨胀的部分。

第三个:一次 prompt 里包含多个任务。三个独立 prompt = 三次完整上下文 reload;一个包含三个任务的 prompt = 一次 reload。"总结这篇文章、列出主要观点、再建议一个标题"比拆成三条消息省两倍 token。

第四个:简单任务用 Sonnet 或 Haiku。Grammar check、头脑风暴、格式化、快速回答这些用 Sonnet,深度工作和需要 Opus 的任务分开跑,这一项能帮你把深度工作的预算空出来 30-70%。