三年间,Agent的「最佳实践」变了三轮。ChatGPT刚出来时,只有简单的RAG链;模型强一点,有了复杂工作流;模型再强一轮,scaffolding的新形态又出现了。每一次都是底层模型进步,上层Harness跟着重构,而不是Harness消失。

Harrison Chase(LangChain联创)判断:Harness不会消失,模型越好,周围的系统越复杂,而不是越简单。 证据?Claude Code源码泄露时,行业蜂拥而上研究——那份代码本身就是Harness。全世界最好的模型团队,在模型之外还在大力投入Harness。

记忆不是插件,是Harness本身

Sarah Wooders(MemGPT联创)有一个精准的类比:「问怎么把记忆插件接到Harness上,就像问怎么把『驾驶』接到汽车上」——上下文管理(包括记忆)本身就是Harness的核心职责,不是外挂。

这个判断越来越清晰。Harness对记忆的影响无处不在:context window怎么填入?Skill元数据怎么展示给Agent?Agent能修改自己的系统指令吗? compaction后保留下什么、丢掉什么?交互历史可查询吗?这些全是Harness的设计决策,不是「插个记忆模块」能解决的。

现在的行业现状:记忆在概念上还处于婴儿期。长期记忆往往不在MVP里,先让Agent跑起来再说。这意味着行业还在摸索记忆的最佳抽象——现在还不是分离出独立记忆服务的时候。

用了闭源Harness,你就没有记忆主权

这个问题有三个层次:

轻度:用了有状态的API(OpenAI的Responses API、Anthropic的服务端compaction),状态存在别人服务器上。想换模型、继续之前的线程?做不到。

糟糕:用了闭源Harness(比如Claude Agent SDK,底层是Claude Code,不开源),这个Harness怎么和记忆交互、记忆的数据结构是什么、怎么被调用——全是黑箱,不可迁移。

最糟:整个Harness连带长期记忆全在API后面。你不仅不知道Harness怎么运作,你甚至不拥有那段记忆!能暴露多少、通过什么接口暴露,全部由平台方控制。

模型厂商正在用记忆建立锁死

Harrison指出了核心动机:模型本身的API差异很小,切换成本低。但记忆不一样——记忆是专属数据,是用户交互偏好的积累,是差异化体验的根基。

没有记忆的Agent,谁有同样的工具就能复制出一个。有记忆的Agent,才是你真正独有的资产——用户交互越多,记忆越丰富,体验越不可替代。

模型厂商深知这一点。Anthropic推出了Server-Side Memory,全部放在API后面,锁死在他们的平台上。即便是开源的Codex,也生成了加密的compaction摘要——出了OpenAI生态就不能用。

这是模型厂商的天然激励:光靠模型建立不了忠诚度,靠记忆可以。

一个真实教训

Harrison讲了自己的故事。他公司内部有一个邮件助手,跑在他们的无代码平台上,平台自带记忆。几个月用下来,助手学会了偏好、语气、所有个人习惯。

然后这个助手被意外删了。他从同一模板重建一个,体验断崖式下跌——所有偏好都要重新教。

「删掉的那一刻,我才意识到记忆有多强大、多黏人。」

解法:用开源Harness,拥有自己的记忆

Harrison给出的方向是「Deep Agents」:

  • 开源
  • 模型无关(不绑定特定模型)
  • 使用开放标准(MCP等)
  • 支持插件存储记忆到Postgres、Redis等
  • 可自托管:部署在任何云上,用自己的数据库做记忆存储

本质主张一句话:记忆(进而Harness)必须和模型提供商分离。你要有能力随时切换模型,而你的记忆资产跟随着你,不是跟随着模型厂商的平台。