Back to Blog

Platform Update: Credentials Auth, Trait Feedback & OpenClaw Minimum Intrusion

neuromem team

三月份我们集中发力,围绕易用性、质量控制和 OpenClaw 集成优化,一口气上线了 6 项重要功能。

6

新功能

+5

API 端点

v0.3.0

OpenClaw

-1,321 行

代码精简

邮箱注册登录

之前 neuromem Cloud 只支持 GitHub OAuth 登录,对于不使用 GitHub 的用户来说门槛偏高。现在我们新增了完整的邮箱注册登录体系,与现有的 GitHub/Google OAuth 共存。

核心实现细节:

  • 注册、登录、忘记密码、重置密码完整流程
  • Email 验证——通过 Resend 发送验证邮件,未验证的账号无法登录
  • bcrypt 密码哈希——在 executor 中运行,不阻塞事件循环
  • 与现有 OAuth 共存——同一邮箱可以关联 GitHub、Google 和密码三种登录方式

邮箱注册流程

用户注册

填写邮箱和密码

发送验证邮件

通过 Resend 邮件服务

邮箱验证

点击链接完成验证

登录成功

自动创建租户和默认 Space

特质反馈

neuromem 的 digest 引擎会从对话历史中提炼行为特质(Trait),但并非所有生成的特质都准确有用。现在用户和 Agent 都可以对特质提供反馈,帮助系统不断优化特质质量。

反馈机制的工作原理:

  • 👍 有用——增加 reinforcement_count,强化该特质
  • 👎 无用——增加 contradiction_count,可能降低特质阶段(例如从 established 降回 trend
  • 反馈随时间累积,系统自动调整特质的置信度和生命周期

四种反馈方式

反馈方式接口场景
REST APIPOST /api/v1/feedback后端集成、自动化
MCP 工具feedback_traitClaude Code、Cursor 等 MCP 客户端
Dashboard UI👍👎 按钮人工审核特质质量
OpenClaw 插件neuromem_feedback 工具Agent 自主反馈

不管通过哪种方式,反馈最终都会影响同一个特质的生命周期——reinforcement 足够多的特质会晋升为 established,contradiction 过多的则会被降级甚至淘汰。

Space 级 ONE LLM 模式

之前 ONE LLM 模式只能在租户级别统一开关。但实际使用中,同一个租户下的不同 Agent 往往有不同的需求——比如编程 Agent 适合 ONE LLM 模式(复用客户端 LLM),而客服 Agent 可能需要服务端统一提取以保证一致性。

现在每个 Space 可以独立设置 ONE LLM 模式,配置解析链为:

Space 设置 → 租户设置 → 系统默认

如果 Space 没有设置,就继承租户的配置;如果租户也没有设置,则使用系统默认值。这样既保证了灵活性,又不需要每个 Space 都手动配置。

智能批量删除

随着记忆数据的增长,批量管理变得越来越重要。我们对 Dashboard 的记忆管理做了几项关键改进:

  • 跨页全选——选中所有符合条件的记忆,不再局限于当前页
  • 日期范围删除——按时间段批量清理记忆
  • 条件批量删除 API——POST /api/v1/memories/batch-delete,支持日期范围 + 类型过滤
  • Dry-run 预览——删除前先查看会影响多少条记忆,避免误操作

这对于需要清理早期实验数据或执行数据合规操作的用户来说尤其实用。

OpenClaw v0.3.0 — 最小侵入模式

OpenClaw 插件的默认行为是每轮对话都执行 auto-recall(注入记忆)和 auto-capture(捕获存储)。但在简单任务中(比如打个招呼、问个日期),这种行为不仅多余,还增加了延迟,影响用户体验。

v0.3.0 引入了「最小侵入模式」,通过三个维度的优化大幅降低记忆系统对对话的干扰:

Recall Denoise(召回降噪)——只有当用户消息足够有实质内容时才注入记忆,跳过问候、单字回复、纯代码片段等。

Capture De-frequency(捕获降频)——不再每轮都存储,通过 minCaptureLength 过滤短消息,跳过纯事务性对话。

Overlay Prompt(轻量注入)——不再在上下文开头插入大段记忆块,改用更轻量的 overlay 方式,减少对 Agent 上下文窗口的占用。

此外 v0.3.0 还新增了反馈工具、事件时间线展示和召回结果中的知识图谱上下文。

默认模式 vs 最小侵入模式(10 分制)

最小侵入模式在保持记忆质量的同时,显著降低了延迟和上下文开销。推荐在大多数日常场景下使用。

代码精简:SDK 0.11 API 迁移

这个月我们还完成了一项重要的架构清理:将服务端直接操作数据库的 SQL 代码全部替换为 neuromem SDK 0.11.0 的公共 API。Cloud 服务从此只负责多租户编排和认证,所有记忆逻辑都下沉到 SDK 层。

服务端代码行数变化

替换直接 SQL 为 SDK 公共 API

代码量减少了 82%,不仅降低了维护成本,也确保了 Cloud 和自托管版本在记忆行为上的一致性。

接下来

四月的重点方向:

  • 用量追踪和计费体系——为商业化做准备
  • 多层计费方案——Free / Pro / Enterprise 分级
  • GDPR 合规工具——数据导出、账号删除、记忆遗忘权

欢迎到 GitHub Discussions 分享你的想法和建议。