Servidor de caché de memoria
Un servidor de Protocolo de Contexto de Modelo (MCP) que reduce el consumo de tokens mediante el almacenamiento eficiente de datos en caché entre interacciones del modelo de lenguaje. Funciona con cualquier cliente MCP y cualquier modelo de lenguaje que utilice tokens.
Instalación
Instalación mediante herrería
Para instalar Memory Cache Server para Claude Desktop automáticamente a través de Smithery :
Instalación manual
Clonar el repositorio:
Instalar dependencias:
Construir el proyecto:
Añade a la configuración de tu cliente MCP:
El servidor se iniciará automáticamente cuando utilice su cliente MCP
Verificando que funciona
Cuando el servidor esté funcionando correctamente, verás:
Un mensaje en la terminal: "El servidor MCP de memoria caché se está ejecutando en stdio"
Rendimiento mejorado al acceder a los mismos datos varias veces
No se requiere ninguna acción por su parte: el almacenamiento en caché se realiza automáticamente
Puede verificar que el servidor esté funcionando mediante:
Abrir su cliente MCP
Buscando cualquier mensaje de error en la terminal donde iniciaste el servidor
Realizar operaciones que se beneficiarían del almacenamiento en caché (como leer el mismo archivo varias veces)
Configuración
El servidor se puede configurar a través de config.json
o variables de entorno:
Explicación de los ajustes de configuración
maxEntries (predeterminado: 1000)
Número máximo de elementos que se pueden almacenar en la caché
Evita que la caché crezca indefinidamente
Cuando se excede, los elementos no utilizados más antiguos se eliminan primero
maxMemory (predeterminado: 100 MB)
Uso máximo de memoria en bytes
Previene el consumo excesivo de memoria
Cuando se excede, se eliminan los elementos utilizados menos recientemente
defaultTTL (predeterminado: 1 hora)
Cuánto tiempo permanecen los elementos en la caché de forma predeterminada
Los artículos se eliminan automáticamente después de este tiempo.
Evita que los datos obsoletos consuman memoria
checkInterval (predeterminado: 1 minuto)
Con qué frecuencia el servidor comprueba si hay elementos caducados
Los valores más bajos mantienen el uso de la memoria más preciso
Los valores más altos reducen el uso de la CPU
statsInterval (predeterminado: 30 segundos)
Con qué frecuencia se actualizan las estadísticas de caché
Afecta la precisión de las tasas de aciertos y errores
Ayuda a monitorear la efectividad del caché
Cómo reduce el consumo de tokens
El servidor de caché de memoria reduce el consumo de tokens al almacenar automáticamente datos que, de otro modo, tendrían que reenviarse entre usted y el modelo de lenguaje. No necesita hacer nada especial: el almacenamiento en caché se realiza automáticamente al interactuar con cualquier modelo de lenguaje a través de su cliente MCP.
A continuación se muestran algunos ejemplos de lo que se almacena en caché:
1. Almacenamiento en caché del contenido de los archivos
Al leer un archivo varias veces:
Primera vez: se lee y almacena en caché el contenido completo del archivo
Veces posteriores: el contenido se recupera de la caché en lugar de volver a leer el archivo
Resultado: Se utilizan menos tokens para operaciones de archivos repetidas
2. Resultados del cálculo
Al realizar cálculos o análisis:
Primera vez: se realiza el cálculo completo y los resultados se almacenan en caché
Veces posteriores: los resultados se recuperan de la caché si la entrada es la misma
Resultado: Se utilizan menos tokens para cálculos repetidos
3. Datos de acceso frecuente
Cuando se necesitan los mismos datos varias veces:
Primera vez: los datos se procesan y almacenan en caché
Veces posteriores: los datos se recuperan de la caché hasta que expira el TTL
Resultado: Se utilizan menos tokens para acceder a la misma información
Gestión automática de caché
El servidor gestiona automáticamente el proceso de almacenamiento en caché mediante:
Almacenamiento de datos cuando se encuentran por primera vez
Entrega de datos en caché cuando estén disponibles
Eliminar datos antiguos o no utilizados según la configuración
Seguimiento de la eficacia mediante estadísticas
Consejos de optimización
1. Establecer TTL apropiados
Más corto para datos que cambian con frecuencia
Más largo para contenido estático
2. Ajustar los límites de memoria
Más alto para mayor almacenamiento en caché (más ahorro de tokens)
Más bajo si el uso de memoria es una preocupación
3. Supervisar las estadísticas de caché
Alta tasa de aciertos = buen ahorro de tokens
Tasa de aciertos baja = ajustar TTL o límites
Configuración de variables de entorno
Puede anular la configuración de config.json utilizando variables de entorno en la configuración de MCP:
También puede especificar una ubicación de archivo de configuración personalizada:
El servidor hará lo siguiente:
Busque config.json en su directorio
Aplicar cualquier modificación de variable de entorno
Utilice valores predeterminados si no se especifica ninguno
Prueba de la caché en la práctica
Para ver el caché en acción, pruebe estos escenarios:
Prueba de lectura de archivos
Leer y analizar un archivo grande
Vuelve a hacer la misma pregunta sobre el archivo.
La segunda respuesta debería ser más rápida ya que el contenido del archivo está almacenado en caché.
Prueba de análisis de datos
Realizar análisis sobre algunos datos
Solicitar nuevamente el mismo análisis
El segundo análisis debe utilizar resultados almacenados en caché
Prueba de navegación del proyecto
Explorar la estructura de un proyecto
Consultar nuevamente los mismos archivos/directorios
Los listados de directorios y el contenido de los archivos se servirán desde la caché
El caché está funcionando cuando notas:
Respuestas más rápidas para operaciones repetidas
Respuestas consistentes sobre contenido sin cambios
No es necesario volver a leer archivos que no han cambiado
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Un servidor de Protocolo de Contexto de Modelo (MCP) que optimiza el uso de tokens almacenando en caché los datos durante las interacciones del modelo de lenguaje, compatible con cualquier modelo de lenguaje y cliente MCP.
- Instalación
- Verificando que funciona
- Configuración
- Cómo reduce el consumo de tokens
- Gestión automática de caché
- Consejos de optimización
- Configuración de variables de entorno
- Prueba de la caché en la práctica
Related Resources
Related MCP Servers
- -securityAlicense-qualityMCP Server simplifies the implementation of the Model Context Protocol by providing a user-friendly API to create custom tools and manage server workflows efficiently.Last updated -34MIT License
- AsecurityFlicenseAqualityA Model Context Protocol server that reduces token consumption by efficiently caching data between language model interactions, automatically storing and retrieving information to minimize redundant token usage.Last updated -417
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server designed to easily dump your codebase context into Large Language Models (LLMs).Last updated -1242Apache 2.0
- -securityAlicense-qualityA high-performance Model Context Protocol (MCP) server designed for large language models, enabling real-time communication between AI models and applications with support for session management and intelligent tool registration.Last updated -2MIT License