大多数人抱怨 Claude 的限制太严格。作者也曾这样抱怨,直到发现 Claude 计数的不是消息数,而是 Token 数。Token 用得聪明,就能在同样限制下做更多事。

消息越多,成本 quadratic 增长

每条新消息都包含所有之前的对话历史,Claude 每个 turn 都会重读全部内容。

Token 成本公式:S × N(N+1) / 2(S = 每次交换的平均 Token 数,N = 消息数)

以每次约 500 Token 计算:

  • 5 条消息:7.5K tokens
  • 10 条消息:27.5K tokens
  • 20 条消息:105K tokens
  • 30 条消息:232K tokens——比第 1 条贵 31 倍

一位开发者追踪了他的使用数据:98.5% 的 Token 消耗在重读历史,只有 1.5% 用于实际输出结果。

修复提示词,不要投喂历史。 正确做法:点击"Edit"修改原消息 → 修正 → 重新生成。旧对话被替换,不是堆叠。

超过 15-20 条消息就开新对话

长对话积攒了大量无用上下文。正确流程:长对话 → 让 Claude 总结所有内容 → 复制 → 新对话 → 粘贴为第一条消息。

三个问题合并成一条 Prompt

分别发送三个问题 = 三次上下文加载。一条包含三个任务的 Prompt = 一次上下文加载。更省 Token,且 Claude 能看到完整上下文,答案往往更准确。

错误示范:

  • "总结这篇文章"
  • "列出主要观点"
  • "建议一个标题"

正确示范:

  • "总结这篇文章,列出主要观点,并建议一个标题。"

三个问题,一条 Prompt,永远这样做。

用 Projects 缓存文件

同一份 PDF 上传到多个对话,Claude 每次都会重新 tokenize。使用 Projects 功能,文件只需上传一次就会被缓存,每次新对话引用它不再消耗 Token。处理合同、简报、风格指南等长文档时,这个功能可以显著削减开支。

设置记忆,一次保存

每次新对话都要花 3-5 条消息做初始设置:"我是一个营销人员,写作风格随意,喜欢短段落……" 这些重复的初始设定消耗大量 Token。

去"Settings" → "Memory and User Settings"保存你的角色、沟通风格和偏好设置。Claude 会自动应用到每个新对话,不再重复消耗这笔 Token。

关闭不需要的功能

网页搜索、connector、"Explore"模式——这些功能即使你不需要也会给每条回复增加 Token 消耗。

写你自己的内容时,关闭"Search and Tools"功能。

"Advanced Thinking"也消耗 Token。默认关闭,只在首次尝试不满意时才打开。如果没有刻意打开过这个功能,现在就关掉它。

选对模型

语法检查、脑暴、格式化、快速翻译——Haiku 处理这些的成本比 Sonnet 或 Opus 低得多。

Haiku:草稿和简单任务 → Sonnet:实际工作 → Opus:深度思考。

简单任务不需要强大模型,Haiku 就能搞定。

利用 5 小时滚动窗口

Claude 系统使用 5 小时滚动窗口,不是午夜重置。早上 9 点发送的消息,到下午 2 点就不再计入。

如果上午耗尽全部限额,当天大部分限额就浪费了。把一天分成 2-3 个时段:早上、下午、傍晚。回来时之前的消耗已经不在窗口内,限额自动刷新。

注意:自 2026 年 3 月 26 日起,Anthropic 在高峰时段(太平洋时间工作日上午 5:00-11:00)消耗限额速度更快。晚间和周末运行资源密集型任务可以显著拉长使用周期。