Back to Blog

OpenClaw Plugin: Give Your Agent Real Memory

neuromem team

OpenClaw 是一个开源的 AI Agent 框架,支持丰富的插件生态和 MCP 协议。然而,它的原生记忆系统基于 Markdown 文件,存在一些根本性的局限。

原生记忆的问题

OpenClaw 默认的记忆方案是将上下文压缩到 Markdown 文件中。这个方案虽然简单,但有几个关键短板:

  • 上下文压缩会丢失记忆:当对话超过上下文窗口,压缩过程中细节不可避免地被丢弃
  • 无法跨会话记忆:每次新会话启动,之前的记忆需要重新加载,且没有语义搜索能力
  • 不能发现模式:纯文本存储无法从历史对话中提炼行为模式和用户特征
  • 没有知识图谱:事实之间的关联关系无法被捕获和利用

neuromem 为 OpenClaw 提供了一套完整的记忆增强方案。

OpenClaw + neuromem 记忆闭环

用户发送消息

Agent 收到新的对话输入

Auto-Recall 注入记忆

搜索相关记忆 + 特征,注入工作记忆

Agent 生成回复

基于记忆增强的上下文生成个性化回答

Auto-Capture 存储

自动提取事实、事件、三元组并存储

Auto-Digest 反思

会话结束时发现行为模式,生成特征

两种集成方式

方式一:MCP 直连(零代码)

OpenClaw 原生支持 MCP 协议,只需在配置文件中添加 neuromem 作为 MCP 服务器:

// ~/.openclaw/mcp.json
{
  "mcpServers": {
    "neuromem": {
      "url": "https://api.neuromem.cloud/mcp/",
      "headers": {
        "Authorization": "Bearer ${NEUROMEM_API_KEY}"
      }
    }
  }
}

这样 Agent 就可以直接使用 neuromem 的全部 MCP 工具,包括 ingestrecalldigest 等,无需任何代码改动。

方式二:OpenClaw 插件(自动化)

对于需要自动化记忆操作的场景,neuromem 提供了专用的 OpenClaw 插件。配置方式如下:

// ~/.openclaw/plugins.json
"openclaw-neuromem": {
  "enabled": true,
  "config": {
    "apiKey": "${NEUROMEM_API_KEY}",
    "mode": "one-llm",
    "autoRecall": true,
    "autoCapture": true,
    "autoDigest": "session-end",
    "topK": 10,
    "includeTraits": true
  }
}

三个自动钩子

插件通过 OpenClaw 的生命周期钩子实现完全自动化的记忆管理:

Auto-Recall(回复前注入记忆)

在 Agent 生成回复之前,插件自动搜索 neuromem 中与当前消息相关的记忆和特征。搜索结果会被格式化后注入到 Agent 的工作记忆中,让 Agent 的回复更加个性化和连贯。当 includeTraits 开启时,用户的行为特征也会一并注入。

Auto-Capture(回复后存储)

在 Agent 生成回复之后,插件自动将用户消息存储到 neuromem。在 ONE LLM Mode 下,流程是:

  1. 调用 ingest 存储内容,获取 extraction_prompt
  2. 将提取提示交给 OpenClaw 当前的 LLM 执行
  3. 调用 ingest_extracted 回传结构化数据(事实、事件、三元组)

Auto-Digest(会话结束提炼特征)

当会话结束时,插件自动触发反思流程:

  1. 调用 digest 获取未反思的记忆和反思提示
  2. 让 OpenClaw 的 LLM 执行反思,生成行为洞察
  3. 调用 digest_extracted 存储新发现的特征

五个显式工具

除了自动钩子,插件还暴露了 5 个显式工具供 Agent 主动调用:

工具说明
neuromem_recall语义搜索记忆,支持向量 + 图谱 + 特征结果
neuromem_store显式存储一条记忆
neuromem_digest手动触发行为模式分析
neuromem_list浏览已存储的记忆
neuromem_forget删除指定记忆

ONE LLM Mode 支持

插件默认使用 ONE LLM Mode,复用 OpenClaw 自带的 LLM 完成记忆提取和反思。这意味着:

  • 不需要为 neuromem 配置额外的 LLM API Key
  • 零额外 LLM 成本
  • 提取质量与 OpenClaw 使用的模型一致

对比原生方案

OpenClaw 原生 vs neuromem 插件

记忆能力OpenClaw 原生neuromem 插件
跨会话记忆✓ 完整语义搜索
行为模式发现✓ 自动 digest
知识图谱✓ 内建,始终开启
情绪追踪✓ 效价 + 唤醒度
特征生命周期✓ 6 阶段生命周期
额外 LLM 成本无(ONE LLM)
多用户隔离✓ 按 Space 隔离

记忆能力雷达图

OpenClaw 原生 vs neuromem 插件的能力对比(满分 10)

neuromem 不替代 OpenClaw 的原生记忆,而是增强它。让你的 Agent 不只是记住对话内容,还能真正理解用户。