Long-term Memory for LLMs

Long-term Memory for LLMs

长期记忆指 LLM 跨会话持久化信息的能力。

为什么需要

LLM 是无状态的,每次调用之间零记忆。当 ChatGPT 似乎”记住”之前说过什么,实际上是系统在每次调用时将对话历史重新注入到上下文窗口中。模型本身什么都不记得。

长期记忆系统把外部存储当作真正的记忆层,而上下文窗口仅作为临时工作区。

实际案例

  • ChatGPT — 自动从对话中生成用户偏好记忆
  • Cursor / Windsurf — 学习编码习惯和项目上下文
  • Claude Code — 使用 CLAUDE.md 文件作为持久化指令记忆

在 AI UX 中的角色

当系统开始替用户推断意图并执行动作时,长期记忆同时会变成用户体验的一部分。

用户需要看见系统记住了什么、如何临时覆盖、何时要求遗忘。只有这样,记忆才能真正缓解 Articulation Barrier,而不是变成新的黑箱。

在 Context Engineering 中的位置

属于 Context EngineeringWrite(写入) 策略。

与 Scratchpads 的区别

  • 长期记忆:跨会话持久化(偏好、模式、知识)
  • Scratchpads:单次长任务中的中间步骤保存

参见