Three Deployment Modes: From Cloud to Self-Hosted
neuromem team
不同用户对数据隐私和部署便捷性有不同的需求。有人想要零配置立即上手,有人坚持数据必须留在本地,还有人需要在多台设备间同步记忆但又不想暴露原始内容。
neuromem 提供三种部署模式,覆盖这三种典型需求。
三种部署模式能力对比
各维度满分 10 分
云托管(Cloud)
隐私等级:标准
云托管是最简单的使用方式。你的记忆存储在 neuromem Cloud 托管的 PostgreSQL(带 pgvector 向量扩展)中,自动扩容、自动备份、零运维。
你需要准备的:一个 neuromem Cloud API Key。
适用场景:快速集成、零运维、团队协作。
使用方式非常直接——在任何 MCP 客户端中添加 neuromem 服务器,配置 API Key,即可开始使用。数据在传输和存储过程中都有加密保护。
ONE LLM Mode 在云托管模式下通过控制台的 Space 设置按空间开关。开启后,ingest 返回提取提示交给客户端 LLM 执行,不需要服务端配置 LLM;关闭后,服务端用自己的 LLM 处理提取。
本地部署(Self-Hosted)
隐私等级:最高
本地部署通过 Docker 在你的机器上运行完整的 neuromem 技术栈,包括 PostgreSQL + pgvector。所有数据留在 localhost,不会发送到任何外部服务器。
你需要准备的:Docker。
适用场景:隐私敏感场景、个人开发者。
本地部署默认开启 ONE LLM Mode(推荐)。这意味着你的 MCP 客户端(如 Claude Code)直接处理记忆提取——不需要单独配置 LLM API Key。如果你希望用专用的 LLM(如 GPT-4o-mini)来做提取,可以关闭 ONE LLM Mode 并配置 LLM API Key。
docker compose up -d
一条命令启动,数据完全在本地。
混合加密(Hybrid Encrypted)
隐私等级:高
混合加密模式结合了本地计算和云端存储。本地 MCP 服务器负责计算 embedding 和加密内容,然后将加密后的数据推送到 neuromem Cloud。不需要本地数据库——只需一个 API Key 和一个本地加密密钥(首次运行时自动生成)。
你需要准备的:neuromem Cloud API Key + 本地加密密钥。
适用场景:多设备同步、企业级部署。
关键设计是:向量 embedding 保持可搜索状态(因为 embedding 本身不直接泄露原文),而文本内容是端到端加密的。只有持有加密密钥的你才能解密存储的记忆。
这意味着你可以在办公室的电脑和家里的笔记本上同时使用 neuromem,记忆在云端同步,但云端无法读取你的原始内容。
三种模式的对比
部署模式全面对比
| 特性 | 云托管 | 本地部署 | 混合加密 |
|---|---|---|---|
| 数据位置 | neuromem Cloud | 本地 | 加密后在云端 |
| 隐私等级 | 标准 | 最高 | 高 |
| 多设备同步 | ✓ | ✗ | ✓ |
| 运维需求 | 零 | Docker | 低 |
| ONE LLM Mode | ✓ | ✓ 默认开启 | ✓ 默认开启 |
| 适合人群 | 团队 | 个人开发者 | 企业 |
| 启动方式 | 注册即用 | docker compose up | API Key + 加密密钥 |
选择建议
- 个人开发者:推荐本地部署。Docker 启动,ONE LLM Mode 默认开启,零成本、零泄露。
- 团队协作:推荐云托管。零运维,API Key 分发给团队成员即可。
- 企业场景:推荐混合加密。满足合规要求的同时支持多设备使用。
- 快速体验:推荐云托管。注册账号、获取 API Key、添加到 MCP 客户端,三步完成。
无论选择哪种模式,neuromem 提供的核心能力——三层记忆类型、特征生命周期、情绪追踪、知识图谱——都是完全一致的。区别只在于数据存放在哪里,以及谁可以访问它。