Integrations
Provides a Node.js application interface for integrating the MCP server into custom applications, with support for context management and caching features
Servidor MCP de contexto Gemini
Una potente implementación de servidor MCP (Protocolo de Contexto de Modelo) que aprovecha las capacidades de Gemini para la gestión y el almacenamiento en caché de contextos. Este servidor maximiza el valor de la ventana de contexto de 2 M de tokens de Gemini, a la vez que proporciona herramientas para el almacenamiento en caché eficiente de contextos extensos.
🚀 Características
Gestión del contexto
- Compatibilidad con ventanas de contexto de hasta 2 millones de tokens : aproveche las amplias capacidades de contexto de Gemini
- Conversaciones basadas en sesiones : mantenga el estado de la conversación en múltiples interacciones
- Seguimiento de contexto inteligente : agregue, recupere y busque contexto con metadatos
- Búsqueda semántica : encuentre contexto relevante mediante similitud semántica
- Limpieza automática del contexto : las sesiones y el contexto expiran automáticamente
Almacenamiento en caché de API
- Almacenamiento en caché de avisos de gran tamaño : reutilice de forma eficiente avisos e instrucciones del sistema de gran tamaño
- Optimización de costos : reduzca los costos de uso de tokens para contextos de uso frecuente
- Gestión de TTL : controle los tiempos de expiración de la caché
- Limpieza automática : los cachés caducados se eliminan automáticamente
🏁 Inicio rápido
Prerrequisitos
- Node.js 18+ instalado
- Clave API de Gemini ( Obtén una aquí )
Instalación
Uso básico
Integración de clientes MCP
Este servidor MCP se puede integrar con varios clientes compatibles con MCP:
- Claude Desktop : agregar como servidor MCP en la configuración de Claude
- Cursor : configurar en la configuración AI/MCP del cursor
- VS Code : Úselo con extensiones compatibles con MCP
Para obtener instrucciones detalladas de integración con cada cliente, consulte la Guía de configuración del cliente MCP en la documentación de MCP.
Configuración rápida del cliente
Utilice nuestros comandos de instalación de cliente simplificados:
Cada comando configura los archivos de configuración apropiados y proporciona instrucciones para completar la integración.
💻 Ejemplos de uso
Para principiantes
Usando directamente el servidor:
- Iniciar el servidor:Copy
- Interactúe utilizando los scripts de prueba proporcionados:Copy
Usando en su aplicación Node.js:
Para usuarios avanzados
Usando configuraciones personalizadas:
Utilizando el sistema de almacenamiento en caché para la optimización de costos:
🔌 Uso con herramientas MCP (como Cursor)
Este servidor implementa el Protocolo de Contexto de Modelo (MCP), lo que lo hace compatible con herramientas como Cursor u otros entornos de desarrollo mejorados con IA.
Herramientas MCP disponibles
- Herramientas de gestión de contexto:
generate_text
- Generar texto con contextoget_context
- Obtener el contexto actual de una sesiónclear_context
- Borrar el contexto de la sesiónadd_context
- Agregar entradas de contexto específicassearch_context
- Encuentra contexto relevante semánticamente
- Herramientas de almacenamiento en caché:
mcp_gemini_context_create_cache
: crea un caché para contextos grandesmcp_gemini_context_generate_with_cache
- Generar con contexto en cachémcp_gemini_context_list_caches
: enumera todos los cachés disponiblesmcp_gemini_context_update_cache_ttl
- Actualizar el TTL de la cachémcp_gemini_context_delete_cache
- Eliminar un caché
Conectando con el cursor
Cuando se utiliza con Cursor , puede conectarse a través de la configuración de MCP:
Para obtener instrucciones de uso detalladas de las herramientas MCP, consulte README-MCP.md .
⚙️ Opciones de configuración
Variables de entorno
Crea un archivo .env
con estas opciones:
🧪 Desarrollo
📚 Lectura adicional
- Para el uso específico de MCP, consulte README-MCP.md
- Explora el manifiesto en mcp-manifest.json para comprender las herramientas disponibles
- Consulte los scripts de ejemplo en el repositorio para conocer los patrones de uso
📋 Mejoras futuras
- Persistencia de la base de datos para contexto y cachés
- Gestión del tamaño de caché y políticas de desalojo
- Búsqueda semántica basada en vectores
- Seguimiento de análisis y métricas
- Integración con tiendas vectoriales
- Operaciones por lotes para la gestión del contexto
- Estrategias de almacenamiento en caché híbrido
- Optimización automática de indicaciones
📄 Licencia
Instituto Tecnológico de Massachusetts (MIT)
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Una implementación de servidor MCP que maximiza la ventana de contexto de token de 2M de Gemini con herramientas para la gestión eficiente del contexto y el almacenamiento en caché en múltiples aplicaciones cliente de IA.
Related MCP Servers
- -securityAlicense-qualityModel Context Protocol (MCP) server implementation that enables Claude Desktop to interact with Google's Gemini AI models.Last updated -53TypeScriptMIT License
- AsecurityFlicenseAqualityA Model Context Protocol (MCP) server that optimizes token usage by caching data during language model interactions, compatible with any language model and MCP client.Last updated -4JavaScript
- -securityAlicense-qualityAn MCP server implementation that standardizes how AI applications access tools and context, providing a central hub that manages tool discovery, execution, and context management with a simplified configuration system.Last updated -9PythonMIT License
- -security-license-qualityAn MCP server implementation that allows using Google's Gemini AI models (specifically Gemini 1.5 Pro) through Claude or other MCP clients via the Model Context Protocol.Last updated -1JavaScript