local-only server
The server can only run on the client’s local machine because it depends on local resources.
Servidor de caché de memoria
Un servidor de Protocolo de Contexto de Modelo (MCP) que reduce el consumo de tokens mediante el almacenamiento eficiente de datos en caché entre interacciones del modelo de lenguaje. Funciona con cualquier cliente MCP y cualquier modelo de lenguaje que utilice tokens.
Instalación
Instalación mediante herrería
Para instalar Memory Cache Server para Claude Desktop automáticamente a través de Smithery :
Instalación manual
- Clonar el repositorio:
- Instalar dependencias:
- Construir el proyecto:
- Añade a la configuración de tu cliente MCP:
- El servidor se iniciará automáticamente cuando utilice su cliente MCP
Verificando que funciona
Cuando el servidor esté funcionando correctamente, verás:
- Un mensaje en la terminal: "El servidor MCP de memoria caché se está ejecutando en stdio"
- Rendimiento mejorado al acceder a los mismos datos varias veces
- No se requiere ninguna acción por su parte: el almacenamiento en caché se realiza automáticamente
Puede verificar que el servidor esté funcionando mediante:
- Abrir su cliente MCP
- Buscando cualquier mensaje de error en la terminal donde iniciaste el servidor
- Realizar operaciones que se beneficiarían del almacenamiento en caché (como leer el mismo archivo varias veces)
Configuración
El servidor se puede configurar a través de config.json
o variables de entorno:
Explicación de los ajustes de configuración
- maxEntries (predeterminado: 1000)
- Número máximo de elementos que se pueden almacenar en la caché
- Evita que la caché crezca indefinidamente
- Cuando se excede, los elementos no utilizados más antiguos se eliminan primero
- maxMemory (predeterminado: 100 MB)
- Uso máximo de memoria en bytes
- Previene el consumo excesivo de memoria
- Cuando se excede, se eliminan los elementos utilizados menos recientemente
- defaultTTL (predeterminado: 1 hora)
- Cuánto tiempo permanecen los elementos en la caché de forma predeterminada
- Los artículos se eliminan automáticamente después de este tiempo.
- Evita que los datos obsoletos consuman memoria
- checkInterval (predeterminado: 1 minuto)
- Con qué frecuencia el servidor comprueba si hay elementos caducados
- Los valores más bajos mantienen el uso de la memoria más preciso
- Los valores más altos reducen el uso de la CPU
- statsInterval (predeterminado: 30 segundos)
- Con qué frecuencia se actualizan las estadísticas de caché
- Afecta la precisión de las tasas de aciertos y errores
- Ayuda a monitorear la efectividad del caché
Cómo reduce el consumo de tokens
El servidor de caché de memoria reduce el consumo de tokens al almacenar automáticamente datos que, de otro modo, tendrían que reenviarse entre usted y el modelo de lenguaje. No necesita hacer nada especial: el almacenamiento en caché se realiza automáticamente al interactuar con cualquier modelo de lenguaje a través de su cliente MCP.
A continuación se muestran algunos ejemplos de lo que se almacena en caché:
1. Almacenamiento en caché del contenido de los archivos
Al leer un archivo varias veces:
- Primera vez: se lee y almacena en caché el contenido completo del archivo
- Veces posteriores: el contenido se recupera de la caché en lugar de volver a leer el archivo
- Resultado: Se utilizan menos tokens para operaciones de archivos repetidas
2. Resultados del cálculo
Al realizar cálculos o análisis:
- Primera vez: se realiza el cálculo completo y los resultados se almacenan en caché
- Veces posteriores: los resultados se recuperan de la caché si la entrada es la misma
- Resultado: Se utilizan menos tokens para cálculos repetidos
3. Datos de acceso frecuente
Cuando se necesitan los mismos datos varias veces:
- Primera vez: los datos se procesan y almacenan en caché
- Veces posteriores: los datos se recuperan de la caché hasta que expira el TTL
- Resultado: Se utilizan menos tokens para acceder a la misma información
Gestión automática de caché
El servidor gestiona automáticamente el proceso de almacenamiento en caché mediante:
- Almacenamiento de datos cuando se encuentran por primera vez
- Entrega de datos en caché cuando estén disponibles
- Eliminar datos antiguos o no utilizados según la configuración
- Seguimiento de la eficacia mediante estadísticas
Consejos de optimización
1. Establecer TTL apropiados
- Más corto para datos que cambian con frecuencia
- Más largo para contenido estático
2. Ajustar los límites de memoria
- Más alto para mayor almacenamiento en caché (más ahorro de tokens)
- Más bajo si el uso de memoria es una preocupación
3. Supervisar las estadísticas de caché
- Alta tasa de aciertos = buen ahorro de tokens
- Tasa de aciertos baja = ajustar TTL o límites
Configuración de variables de entorno
Puede anular la configuración de config.json utilizando variables de entorno en la configuración de MCP:
También puede especificar una ubicación de archivo de configuración personalizada:
El servidor hará lo siguiente:
- Busque config.json en su directorio
- Aplicar cualquier modificación de variable de entorno
- Utilice valores predeterminados si no se especifica ninguno
Prueba de la caché en la práctica
Para ver el caché en acción, pruebe estos escenarios:
- Prueba de lectura de archivos
- Leer y analizar un archivo grande
- Vuelve a hacer la misma pregunta sobre el archivo.
- La segunda respuesta debería ser más rápida ya que el contenido del archivo está almacenado en caché.
- Prueba de análisis de datos
- Realizar análisis sobre algunos datos
- Solicitar nuevamente el mismo análisis
- El segundo análisis debe utilizar resultados almacenados en caché
- Prueba de navegación del proyecto
- Explorar la estructura de un proyecto
- Consultar nuevamente los mismos archivos/directorios
- Los listados de directorios y el contenido de los archivos se servirán desde la caché
El caché está funcionando cuando notas:
- Respuestas más rápidas para operaciones repetidas
- Respuestas consistentes sobre contenido sin cambios
- No es necesario volver a leer archivos que no han cambiado
You must be authenticated.
Un servidor de Protocolo de Contexto de Modelo (MCP) que optimiza el uso de tokens almacenando en caché los datos durante las interacciones del modelo de lenguaje, compatible con cualquier modelo de lenguaje y cliente MCP.
- Installation
- Verifying It Works
- Configuration
- How It Reduces Token Consumption
- Automatic Cache Management
- Optimization Tips
- Environment Variable Configuration
- Testing the Cache in Practice