Skip to main content
Glama

Memory Accurate Response Mode v2.2.6 - 专为 AI 智能体设计的智能持久化内存系统(支持 HTTP 和 STDIO),停止与内存作斗争,转而掌控它。体验长期记忆、会话连续性和可靠的对话历史记录,让您的 LLM 永远不会丢失重点。

GitHub stars GitHub forks License Python FastAPI Docker Pulls PyPI Downloads

pip install MCP Registry

Official MARM

注意: 这是 官方 MARM 仓库。所有官方版本和发布均在此处管理。

分支版本可以进行实验,但官方更新将始终来自此仓库。


🚀 项目更新:2026 年第二季度

我目前正在完成 SysDX 的发布,这是一个法医级 Windows 硬件诊断工具包,旨在通过 800 多项自动化 Pester 测试来捕获间歇性的 PCIe 抖动和 TDR 崩溃。这个繁重的生产开发阶段已成为 MARM 核心逻辑的终极压力测试,我目前正在将这些现实世界的稳定性和内存优化移植回此仓库。

🛠️ 第二季度路线图

  • 会话持久化修复:解决 marm_log_session 状态逻辑,确保在日志条目触发之前活动会话正确持久化。

  • 智能速率限制:减少 10 分钟的本地主机锁定,并实现 Retry-After 标头,以实现更流畅的 MCP 客户端处理。

  • 基于目录的内存:过渡到每个项目一个 SQLite 的架构,以允许为不同的编码环境提供隔离的内存池。

  • 上下文膨胀减少:为文档实现延迟加载,以防止会话启动期间不必要的 Token 消耗。

  • 自动化检查点:添加一个可选的“自动日志”功能,每 N 条消息触发一次语义摘要。

  • 核心清理:删除重复的根文件以建立单一事实来源,并防止未来的安装漂移。

感谢您的耐心与支持。


MARM 演示视频:Docker 安装 + 查看持久化 AI 内存的实际操作

https://github.com/user-attachments/assets/c7c6a162-5408-4eda-a461-610b7e713dfe

此演示视频介绍了 MARM MCP 的 Docker 拉取过程,并使用 claude add mcp transport 命令将其连接到 Claude,然后展示了多个 AI 智能体(Claude、Gemini、Qwen)通过 MARM 的持久化通用内存即时共享日志和笔记本条目,证明了跨智能体召回和“绝对真理”笔记本的实际效果。


为什么选择 MARM MCP:问题与解决方案

您的 AI 会忘记一切。但 MARM MCP 不会。

现代 LLM 会随着时间的推移丢失上下文、重复之前的想法并偏离需求。MARM MCP 通过一个统一的、持久化的、原生支持 MCP 的内存层解决了这个问题,该层位于您使用的任何 AI 客户端之下。它融合了语义搜索、结构化会话日志、可重用笔记本和智能摘要,因此您的智能体可以跨会话、跨工具一致地记忆、引用和构建先前的工作。

一句话概括 MCP: MARM MCP 在任何 AI 工具下提供持久化内存和结构化会话上下文,让您的智能体能够跨所有工作流进行学习、记忆和协作。

问题 → MARM 解决方案

  • 问题:对话重置;决策丢失;工作分散在多个 AI 工具中。

  • 解决方案:一个通用的、持久化的内存层,用于捕获和分类重要部分(决策、配置、代码、基本原理),然后按含义而非关键字进行召回。

使用前 vs 使用后

  • 没有 MARM:丢失上下文、重复建议、范围漂移、“从零开始”。

  • 有了 MARM:会话内存、跨会话连续性、决策的具体召回,以及更快、更准确的交付。

MARM MCP 提供什么

内存

多 AI 支持

架构

语义搜索 - 使用 AI 嵌入按含义查找

统一内存层 - 适用于 Claude、Qwen、Gemini、MCP 客户端

18 个完整 MCP 工具 - 全面的模型上下文协议覆盖

自动分类 - 内容分类(代码、项目、书籍、常规)

跨平台智能 - 不同的 AI 从共享知识中学习

数据库优化 - 带有 WAL 模式和连接池的 SQLite

持久化跨会话内存 - 记忆在智能体对话中存续

用户控制的内存 - “自带历史记录”,精细控制

速率限制 - 基于 IP 的层级以确保稳定性

智能召回 - 具有上下文感知回退的向量相似度搜索

MCP 合规性 - 响应大小管理以实现可预测的性能

Docker 就绪 - 带有健康/就绪检查的容器化部署


用户评价

“MARM 成功地处理了我们在生产环境中的工业自动化工作流。我们在 Windows 11 + Docker 环境中验证了容器重启后的会话管理、持久化日志记录和智能召回。该系统可靠地跟踪复杂的决策,并通过部署周期保持数据完整性。”
@Ophy21, GitHub 用户(工业自动化工程师)

“MARM 对于 DevOps 和复杂的 Docker 项目非常有价值。它保持了 100% 的内存准确性,保留了 46 个服务和网络配置的上下文,并实现了符合标准的 Python/Terraform 工作。语义搜索和自动化会话日志使解决异步和基础设施问题变得容易得多。价值评分: 9.5/10 - 对于企业级内存、技术标准和长会话代码管理来说是不可或缺的。” @joe_nyc, Discord 用户(DevOps/基础设施工程师)


MARM MCP 服务器指南

既然您了解了生态系统,以下是有关如何将 MCP 服务器与您的 AI 智能体一起使用的信息


🚀 MCP 快速入门(HTTP 和 Stdio)

Docker 安装:

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

本地 http 安装:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Stdio 安装:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

Docker(最快 - 30 秒):

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

快速本地 http 安装:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Http 手动 JSON 配置:

{
  "mcpServers": {
    "marm-memory": {
      "httpUrl": "http://localhost:8001/mcp",
      "authentication": {
        "type": "oauth",
        "clientId": "local_client_b6f3a01e",
        "clientSecret": "local_secret_ad6703cd2b4243ab",
        "authorizationUrl": "http://localhost:8001/oauth/authorize",
        "tokenUrl": "http://localhost:8001/oauth/token"
      }
    }
  }
}

本地开发身份验证(仅限开发)

MARM 包含 用于本地测试的模拟 OAuth 2.0 凭据——而不是生产身份验证系统。

为什么硬编码凭据? 在本地开发时,您没有外部 OAuth 提供程序(GitHub、Google 等)。MARM 包含开发凭据,以便您可以测试完整的 MCP 身份验证流程,而无需外部依赖。

对于本地开发,请使用以下凭据:

  • 客户端 ID: local_client_b6f3a01e

  • 客户端密钥: local_secret_ad6703cd2b4243ab

服务器仅在开发期间针对这些硬编码值进行验证。

对于生产部署: 将此整个部分替换为真实的 OAuth 2.1 身份验证。这些硬编码凭据仅供开发使用,不适合生产环境。

路线图: 计划在未来版本中实现多用户 OAuth 身份验证,以支持团队部署和云环境。


STDIO 传输支持(2025 年 12 月 7 日新增)

MARM MCP 服务器支持需要 stdin/stdout 通信的 MCP 客户端(编排平台、CLI 工具和集成开发环境)的 STDIO 传输。

Stdio 安装快速指南

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

第一步:

pip install marm-mcp-server==2.2.6

第二步:安装 STDIO 特定依赖项:

pip install -r marm-mcp-server/requirements_stdio.txt

第三步:配置

选择以下两种设置方法之一:

选项 1:CLI 配置(推荐)

使用您平台的 MCP 命令将 MARM 添加为 STDIO 服务器:

<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"

<platform> 替换为:

  • qwen 用于 Qwen CLI

  • claude 用于 Claude CLI

  • gemini 用于 Gemini CLI

示例:

claude mcp add --transport stdio marm-memory-stdio python "/home/user/marm-mcp-server/server_stdio.py"

选项 2:JSON 配置

对于需要手动配置的 IDE 和客户端,请将其添加到您的设置文件中:

macOS/Linux:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["/path/to/marm-mcp-server/server_stdio.py"],
      "cwd": "/path/to/marm-mcp-server"
    }
  }
}

Windows:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["C:\\Users\\YourUsername\\path\\to\\marm-mcp-server\\server_stdio.py"],
      "cwd": "C:\\Users\\YourUsername\\path\\to\\marm-mcp-server"
    }
  }
}

第四步(可选):手动运行服务器

要在本地运行服务器:

python marm-mcp-server/server_stdio.py

服务器将启动并监听来自已连接 MCP 客户端的 JSON-RPC 2.0 消息的 stdin/stdout。

配置说明

  • 使用 python(在 Windows 上不要使用 python3

  • cwd 参数是 必需的 — 它允许服务器定位核心模块

  • 不要将 run 作为参数包含在内

  • /path/to/ 替换为您的实际安装路径

支持的平台

已测试并可在以下平台工作:

  • ✅ Qwen CLI (Windows, macOS, Linux)

  • ✅ Claude CLI (Windows, macOS, Linux)

  • ✅ Gemini CLI (Windows, macOS, Linux)

  • ✅ Cursor (Windows, macOS, Linux) — 使用 JSON 配置

对于其他平台

如果您的平台未在上面列出:

  1. 尝试 JSON 配置 — 大多数 MCP 客户端支持标准配置格式

  2. 使用 AI 辅助 — 向 AI 助手提供您的平台名称和 MCP 文档,它可以帮助调整上面显示的命令模式

  3. 检查平台文档 — 请参阅您的 MCP 客户端关于 STDIO 传输设置的文档


WebSocket 传输支持(测试版 - 正在测试中)

MARM MCP 服务器包含 实验性 WebSocket 支持,用于实时 MCP 通信。此传输已在内部实现和测试,但尚未在生产工作流中积极使用。

WebSocket 安装快速指南

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server/server.py

通过 WebSocket 连接(测试版):

# Claude CLI
claude mcp add marm-memory ws://localhost:8001/mcp/ws

# Grok CLI  
grok mcp add marm-memory --transport websocket --url "ws://localhost:8001/mcp/ws"

WebSocket 端点: ws://localhost:8001/mcp/ws

WebSocket 功能

  • 实时通信 - 全双工 WebSocket 协议支持

  • JSON-RPC 2.0 合规性 - 支持所有 19 种 MCP 方法

  • 相同的工具覆盖范围 - 访问所有 MARM 内存和会话工具

  • 测试版状态 - 已测试但未积极使用;欢迎反馈

支持的平台

  • ✅ Claude CLI (WebSocket 传输)

  • ✅ Grok CLI (WebSocket 传输)

  • ✅ Qwen CLI (带有手动 WebSocket 配置)

  • ✅ Gemini CLI (带有手动 WebSocket 配置)

传输比较

功能

HTTP

STDIO

WebSocket

部署

需要 HTTP 服务器

基于进程

HTTP 服务器

资源隔离

共享服务器

每个进程

共享服务器

平台支持

基于 Web 的客户端

CLI/编排工具

CLI 工具 (测试版)

设置复杂度

中等

中等

用例

Web 应用,远程访问

本地工具,自动化

实时应用 (测试版)

状态

稳定

稳定

测试版

关键信息:

  • 服务器端点http://localhost:8001/mcp

  • API 文档http://localhost:8001/docs

  • 支持的客户端:Claude Code, Qwen CLI, Gemini CLI 以及任何兼容 MCP 的 LLM 客户端或 LLM 平台

所有安装选项:

  • Docker(最快):一条命令,随处可用

  • 自动设置:带有依赖验证的一条命令

  • 手动安装:带有虚拟环境的分步指南

  • 快速测试:零配置试运行

选择您的安装方式:

安装类型

指南

最适合

Docker

INSTALL-DOCKER.md

跨平台,生产部署

Windows

INSTALL-WINDOWS.md

原生 Windows 开发

Linux

INSTALL-LINUX.md

原生 Linux 开发

平台

**[INSTALL-PLATFORM.md](https://github.com/Lyellr88/MARM-Systems/blob/MARM-

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lyellr88/marm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server