Back to Blog

Trait Lifecycle Visualization: Transparent AI Understanding

neuromem team

大多数 AI 系统给你贴标签:"你是一个技术控"、"你喜欢简约风格"。但这些标签从哪里来?有多可靠?什么时候会过时?你完全不知道。

neuromem 认为,如果 AI 要对用户做出判断,这个判断必须是透明的。特征生命周期可视化就是实现这种透明的方式。

特征不是静态标签

在 neuromem 中,特征(Trait)不是一次性生成的标签,而是有生命周期的动态洞察。每个特征从被发现到被验证,再到可能的消散,都经历一个明确的阶段演进过程。

六个生命周期阶段

每个特征会经历以下阶段:

trend → candidate → emerging → established → core → dissolved
趋势      候选       浮现        已建立       核心     已消散
  • Trend(趋势):短期内观察到的模式,通常在 30 天时间窗口内。比如"用户最近频繁讨论换工作"。这个阶段的特征不参与 recall 搜索,因为还没有被验证。
  • Candidate(候选):置信度低于 0.3 的特征。已经有一些支撑证据,但还不够稳固。同样不参与 recall。
  • Emerging(浮现):置信度 0.3 到 0.6。开始参与 recall 搜索,但权重较低。
  • Established(已建立):置信度 0.6 到 0.85。以正常权重参与 recall。
  • Core(核心):置信度超过 0.85。高权重、优先返回。这些是系统最确定的用户特征。
  • Dissolved(已消散):特征被归档,不再参与任何搜索。可能是因为证据不足自然衰减,也可能是被矛盾证据推翻。

各阶段置信度阈值

置信度决定特征的生命周期阶段和检索权重

特征置信度随时间演变示例

一个从 Trend 成长为 Core 的行为特征('数据驱动决策')

可视化设计

在 neuromem 的 Dashboard 中,每个特征卡片都包含一个生命周期可视化组件。设计采用圆点加连线的方式:

  • 五个圆点代表 trend 到 core 的五个活跃阶段
  • 当前阶段用高亮圆点加外发光环表示
  • 已经历的阶段用半透明圆点表示
  • 未到达的阶段用暗色圆点表示
  • 阶段之间用横线连接,已经历的连线高亮

每个阶段有独立的配色方案:trend 和 candidate 用中性灰色,emerging 用蓝色,established 用绿色,core 用金色。这种配色让用户一眼就能判断特征的成熟程度。

置信度条

每个特征下方都有一个置信度进度条。颜色根据置信度值动态变化:

  • 80% 以上:绿色——高度确信
  • 50% 到 80%:蓝色——较为确信
  • 30% 到 50%:黄色——需要更多证据
  • 30% 以下:红色——证据薄弱

进度条的右侧显示精确的百分比数字。这不是一个模糊的"高/中/低"评级,而是基于证据质量公式计算出的精确值。

证据追踪

展开特征卡片后,用户可以看到支撑这个特征的所有证据:

支持证据(Supporting):哪些记忆支持了这个特征的存在。每条证据旁边标注了质量等级:

  • A 级:跨上下文一致性——同一模式在工作和生活中都出现过
  • B 级:用户明确陈述——"我是一个没耐心的人"
  • C 级:跨对话行为——同一模式在不同对话中出现
  • D 级:单次对话推断——从一次对话中隐含推断

反驳证据(Contradicting):哪些记忆与这个特征矛盾。反驳证据用红色标注,让用户一目了然。

在特征卡片的底部统计行中,以 +支持次数 / -反驳次数 的格式展示支持和反驳的比例。比如 +7 / -1 表示有 7 条支持证据和 1 条反驳证据。

消散机制

特征不需要手动清理。neuromem 内置了自然衰减机制:

  • 每个特征的置信度会随时间缓慢下降(不同子类型有不同的衰减率)
  • 被多次增强的特征衰减更慢(间隔效应)
  • 当反驳证据超过总证据的 30%,系统会触发专门的反思来重新评估
  • Trend 阶段的特征如果在时间窗口内未被增强,自动消散

间隔效应:强化次数影响衰减速度

被多次强化的特征(蓝色)比新形成的特征(红色)衰减慢得多

这意味着过时的特征会自然消失,不会永远停留在用户画像中。如果你三年前喜欢某个技术框架但现在已经不再使用,这个特征的置信度会逐渐降低直到消散。

为什么透明很重要

特征生命周期可视化的目标不是炫技,而是解决一个根本性的信任问题:用户凭什么相信 AI 的判断?

当用户能看到一个特征是从哪些证据中得出的、当前处于什么阶段、AI 有多确定、有没有矛盾的信号,他们就可以自己判断这个理解是否准确。这比一个不透明的"AI 认为你是..." 要有意义得多。

透明的 AI 不是更弱的 AI,而是更值得信赖的 AI。