Skip to main content
Glama

Memory Accurate Response Mode v2.2.6 - El sistema de memoria persistente inteligente para agentes de IA (compatible con HTTP y STDIO), deja de luchar contra tu memoria y contrólala. Experimenta la recuperación a largo plazo, la continuidad de la sesión y un historial de conversaciones fiable, para que tus LLM nunca pierdan de vista lo que importa.

GitHub stars GitHub forks License Python FastAPI Docker Pulls PyPI Downloads

pip install MCP Registry

Official MARM

Nota: Este es el repositorio oficial de MARM. Todas las versiones y lanzamientos oficiales se gestionan aquí.

Las bifurcaciones (forks) pueden experimentar, pero las actualizaciones oficiales siempre provendrán de este repositorio.


🚀 Actualización del proyecto: Q2 2026

Actualmente estoy finalizando el lanzamiento de SysDX, un kit de herramientas de diagnóstico de hardware de Windows de grado forense diseñado para detectar fallos intermitentes de PCIe y bloqueos TDR a través de más de 800 pruebas automatizadas de Pester. Esta fase de desarrollo de alta producción ha servido como la prueba de estrés definitiva para la lógica central de MARM, y ahora estoy trasladando esas optimizaciones de estabilidad y memoria del mundo real de vuelta a este repositorio.

🛠️ Hoja de ruta para el Q2

  • Corrección de persistencia de sesión: Resolviendo la lógica de estado de marm_log_session para asegurar que las sesiones activas persistan correctamente antes de que se disparen las entradas de registro.

  • Limitación de tasa inteligente: Reduciendo el bloqueo de localhost de 10 minutos e implementando una cabecera Retry-After para un manejo más fluido del cliente MCP.

  • Memoria basada en directorios: Transición a una arquitectura SQLite por proyecto para permitir grupos de memoria aislados para diferentes entornos de codificación.

  • Reducción de la hinchazón del contexto: Implementación de carga diferida (lazy-loading) para la documentación para evitar el consumo innecesario de tokens durante el inicio de la sesión.

  • Puntos de control de automatización: Añadiendo una función opcional de "Auto-Log" que activa resúmenes semánticos cada N mensajes.

  • Limpieza del núcleo: Eliminación de archivos raíz duplicados para establecer una única fuente de verdad y evitar futuras desviaciones en la instalación.

Gracias por tu paciencia y apoyo.


Vídeo de demostración de MARM: Instalación en Docker + Viendo la memoria persistente de IA en acción

https://github.com/user-attachments/assets/c7c6a162-5408-4eda-a461-610b7e713dfe

Este vídeo de demostración recorre una descarga de Docker de MARM MCP y su conexión a Claude usando el comando claude add mcp transport, y luego muestra a múltiples agentes de IA (Claude, Gemini, Qwen) compartiendo instantáneamente registros y entradas de cuaderno a través de la memoria persistente y universal de MARM, demostrando una recuperación fluida entre agentes y cuadernos de "verdad absoluta" en acción.


Por qué MARM MCP: El problema y la solución

Tu IA lo olvida todo. MARM MCP no.

Los LLM modernos pierden contexto con el tiempo, repiten ideas previas y se desvían de los requisitos. MARM MCP resuelve esto con una capa de memoria unificada, persistente y nativa de MCP que se sitúa bajo cualquier cliente de IA que utilices. Combina búsqueda semántica, registros de sesión estructurados, cuadernos reutilizables y resúmenes inteligentes para que tus agentes puedan recordar, referenciar y construir sobre el trabajo previo, de forma consistente, entre sesiones y entre herramientas.

MCP en una frase: MARM MCP proporciona memoria persistente y contexto de sesión estructurado bajo cualquier herramienta de IA, para que tus agentes aprendan, recuerden y colaboren en todos tus flujos de trabajo.

El problema → La solución de MARM

  • Problema: Las conversaciones se reinician; las decisiones se pierden; el trabajo se dispersa entre múltiples herramientas de IA.

  • Solución: Una capa de memoria universal y persistente que captura y clasifica los elementos importantes (decisiones, configuraciones, código, fundamentos), y luego los recupera por significado, no por palabras clave.

Antes vs. Después

  • Sin MARM: contexto perdido, sugerencias repetidas, alcance a la deriva, "empezar desde cero".

  • Con MARM: memoria de sesión, continuidad entre sesiones, recuperación concreta de decisiones y una entrega más rápida y precisa.

Lo que ofrece MARM MCP

Memoria

Multi-IA

Arquitectura

Búsqueda semántica - Encuentra por significado usando incrustaciones de IA

Capa de memoria unificada - Funciona con Claude, Qwen, Gemini, clientes MCP

18 herramientas MCP completas - Cobertura total del Protocolo de Contexto de Modelo

Clasificación automática - Contenido categorizado (código, proyecto, libro, general)

Inteligencia multiplataforma - Diferentes IA aprenden del conocimiento compartido

Optimización de base de datos - SQLite con modo WAL y agrupación de conexiones

Memoria persistente entre sesiones - Los recuerdos sobreviven a las conversaciones de los agentes

Memoria controlada por el usuario - "Trae tu propio historial", control granular

Limitación de tasa - Niveles basados en IP para mayor estabilidad

Recuperación inteligente - Búsqueda de similitud vectorial con alternativas conscientes del contexto

Cumplimiento MCP - Gestión del tamaño de respuesta para un rendimiento predecible

Listo para Docker - Despliegue en contenedores con comprobaciones de salud/preparación


Lo que dicen los usuarios

“MARM maneja con éxito nuestros flujos de trabajo de automatización industrial en producción. Hemos validado la gestión de sesiones, el registro persistente y la recuperación inteligente tras reinicios de contenedores en nuestro entorno de Windows 11 + Docker. El sistema rastrea de forma fiable decisiones técnicas complejas y mantiene la integridad de los datos a través de los ciclos de despliegue.”
@Ophy21, usuario de GitHub (Ingeniero de Automatización Industrial)

“MARM resultó excepcionalmente valioso para DevOps y proyectos complejos de Docker. Mantuvo una precisión de memoria del 100%, preservó el contexto en 46 servicios y configuraciones de red, y permitió un trabajo de Python/Terraform conforme a los estándares. La búsqueda semántica y los registros de sesión automatizados hicieron que resolver problemas asíncronos y de infraestructura fuera mucho más fácil. Valoración: 9.5/10 - indispensable para memoria de grado empresarial, estándares técnicos y gestión de código en sesiones largas.” @joe_nyc, usuario de Discord (Ingeniero de DevOps/Infraestructura)


Guía del servidor MARM MCP

Ahora que entiendes el ecosistema, aquí tienes información y cómo usar el servidor MCP con tus agentes de IA


🚀 Inicio rápido para MCP (HTTP y Stdio)

Instalación en Docker:

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Instalación local http:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Instalación Stdio:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

Docker (Más rápido - 30 segundos):

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Instalación rápida local http:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Configuración JSON manual http:

{
  "mcpServers": {
    "marm-memory": {
      "httpUrl": "http://localhost:8001/mcp",
      "authentication": {
        "type": "oauth",
        "clientId": "local_client_b6f3a01e",
        "clientSecret": "local_secret_ad6703cd2b4243ab",
        "authorizationUrl": "http://localhost:8001/oauth/authorize",
        "tokenUrl": "http://localhost:8001/oauth/token"
      }
    }
  }
}

Autenticación para desarrollo local (Solo desarrollo)

MARM incluye credenciales mock de OAuth 2.0 para pruebas locales, no es un sistema de autenticación de producción.

¿Por qué credenciales codificadas? Al desarrollar localmente, no tienes proveedores de OAuth externos (GitHub, Google, etc.). MARM incluye credenciales de desarrollo para que puedas probar el flujo completo de autenticación MCP sin dependencias externas.

Para desarrollo local, usa estas credenciales:

  • Client ID: local_client_b6f3a01e

  • Client Secret: local_secret_ad6703cd2b4243ab

El servidor valida contra estos valores codificados solo durante el desarrollo.

Para despliegue en producción: Reemplaza toda esta sección con una autenticación real de OAuth 2.1. Estas credenciales codificadas son solo para desarrollo y no son adecuadas para producción.

Hoja de ruta: La autenticación OAuth multiusuario está planificada para una futura versión para soportar despliegues en equipo y entornos en la nube.


Soporte de transporte STDIO (NUEVO 07/12/2025)

El servidor MARM MCP soporta transporte STDIO para clientes MCP que requieren comunicación stdin/stdout (plataformas de orquestación, herramientas CLI y entornos de desarrollo integrados).

Guía rápida de instalación Stdio

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

Primer paso:

pip install marm-mcp-server==2.2.6

Segundo paso: Instalar dependencias específicas de STDIO:

pip install -r marm-mcp-server/requirements_stdio.txt

Tercer paso: Configuración

Elige uno de los dos métodos de configuración a continuación:

Opción 1: Configuración CLI (Recomendado)

Usa el comando MCP de tu plataforma para añadir MARM como servidor STDIO:

<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"

Reemplaza <platform> con:

  • qwen para Qwen CLI

  • claude para Claude CLI

  • gemini para Gemini CLI

Ejemplo:

claude mcp add --transport stdio marm-memory-stdio python "/home/user/marm-mcp-server/server_stdio.py"

Opción 2: Configuración JSON

Para IDEs y clientes que requieren configuración manual, añade esto a tu archivo de configuración:

macOS/Linux:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["/path/to/marm-mcp-server/server_stdio.py"],
      "cwd": "/path/to/marm-mcp-server"
    }
  }
}

Windows:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["C:\\Users\\YourUsername\\path\\to\\marm-mcp-server\\server_stdio.py"],
      "cwd": "C:\\Users\\YourUsername\\path\\to\\marm-mcp-server"
    }
  }
}

Paso 4 (Opcional): Ejecutar el servidor manualmente

Para ejecutar el servidor localmente:

python marm-mcp-server/server_stdio.py

El servidor se iniciará y escuchará en stdin/stdout mensajes JSON-RPC 2.0 de clientes MCP conectados.

Notas de configuración

  • Usa python (no python3 en Windows)

  • El parámetro cwd es obligatorio — permite al servidor localizar los módulos principales

  • NO incluyas run como argumento

  • Reemplaza /path/to/ con tu ruta de instalación real

Plataformas soportadas

Probado y funcionando en:

  • ✅ Qwen CLI (Windows, macOS, Linux)

  • ✅ Claude CLI (Windows, macOS, Linux)

  • ✅ Gemini CLI (Windows, macOS, Linux)

  • ✅ Cursor (Windows, macOS, Linux) — usa configuración JSON

Para otras plataformas

Si tu plataforma no aparece arriba:

  1. Prueba la configuración JSON — la mayoría de los clientes MCP soportan el formato de configuración estándar

  2. Usa asistencia de IA — proporciona el nombre de tu plataforma y la documentación de MCP a un asistente de IA, que puede ayudar a adaptar el patrón de comando mostrado arriba

  3. Consulta la documentación de la plataforma — consulta la documentación de tu cliente MCP para la configuración de transporte STDIO


Soporte de transporte WebSocket (Beta - En pruebas)

El servidor MARM MCP incluye soporte experimental de WebSocket para comunicación MCP en tiempo real. Este transporte ha sido implementado y probado internamente pero aún no se utiliza activamente en flujos de trabajo de producción.

Guía rápida de instalación de WebSocket

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server/server.py

Conectar vía WebSocket (Beta):

# Claude CLI
claude mcp add marm-memory ws://localhost:8001/mcp/ws

# Grok CLI  
grok mcp add marm-memory --transport websocket --url "ws://localhost:8001/mcp/ws"

Endpoint de WebSocket: ws://localhost:8001/mcp/ws

Características de WebSocket

  • Comunicación en tiempo real - Soporte de protocolo WebSocket full-duplex

  • Cumplimiento JSON-RPC 2.0 - Los 19 métodos MCP soportados

  • Misma cobertura de herramientas - Accede a todas las herramientas de memoria y sesión de MARM

  • Estado Beta - Probado pero no utilizado activamente; comentarios bienvenidos

Plataformas soportadas

  • ✅ Claude CLI (transporte WebSocket)

  • ✅ Grok CLI (transporte WebSocket)

  • ✅ Qwen CLI (con configuración manual de WebSocket)

  • ✅ Gemini CLI (con configuración manual de WebSocket)

Comparación de transporte

Característica

HTTP

STDIO

WebSocket

Despliegue

Requiere servidor HTTP

Basado en procesos

Servidor HTTP

Aislamiento de recursos

Servidor compartido

Por proceso

Servidor compartido

Soporte de plataforma

Clientes basados en web

Herramientas CLI/orquestación

Herramientas CLI (Beta)

Complejidad de configuración

Media

Baja

Media

Caso de uso

Aplicaciones web, acceso remoto

Herramientas locales, automatización

Aplicaciones en tiempo real (Beta)

Estado

Estable

Estable

Beta

Información clave:

  • Endpoint del servidor: http://localhost:8001/mcp

  • Documentación de la API: http://localhost:8001/docs

  • Clientes soportados: Claude Code

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lyellr88/marm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server