Integrations
Servidor MCP MemGPT
Un servidor MCP basado en TypeScript que implementa un sistema de memoria para LLM. Proporciona herramientas para chatear con diferentes proveedores de LLM y mantiene el historial de conversaciones.
Características
Herramientas
chat
- Envía un mensaje al proveedor actual de LLM- Toma un parámetro de mensaje
- Admite múltiples proveedores (OpenAI, Anthropic, OpenRouter, Ollama)
get_memory
- Recuperar el historial de conversaciones- Parámetro
limit
opcional para especificar el número de memorias a recuperar limit: null
para recuperación de memoria ilimitada- Devuelve recuerdos en orden cronológico con marcas de tiempo.
- Parámetro
clear_memory
- Borrar el historial de conversaciones- Elimina todos los recuerdos almacenados
use_provider
- Cambiar entre diferentes proveedores de LLM- Compatible con OpenAI, Anthropic, OpenRouter y Ollama
- Persiste la selección del proveedor
use_model
- Cambiar a un modelo diferente para el proveedor actual- Admite modelos específicos del proveedor:
- Modelos antrópicos de Claude:
- Serie Claude 3:
claude-3-haiku
: Tiempos de respuesta más rápidos, ideales para tareas como atención al cliente y moderación de contenido.claude-3-sonnet
: Rendimiento equilibrado para uso generalclaude-3-opus
: Modelo avanzado para razonamiento complejo y tareas de alto rendimiento
- Serie Claude 3.5:
claude-3.5-haiku
: Mayor velocidad y rentabilidadclaude-3.5-sonnet
: Rendimiento superior con capacidades de interacción con la computadora
- Serie Claude 3:
- OpenAI: 'gpt-4o', 'gpt-4o-mini', 'gpt-4-turbo'
- OpenRouter: cualquier modelo en formato 'proveedor/modelo' (por ejemplo, 'openai/gpt-4', 'anthropic/claude-2')
- Ollama: Cualquier modelo disponible localmente (por ejemplo, 'llama2', 'codellama')
- Modelos antrópicos de Claude:
- Persiste la selección del modelo
- Admite modelos específicos del proveedor:
Desarrollo
Instalar dependencias:
Construir el servidor:
Para desarrollo con reconstrucción automática:
Instalación
Para utilizar con Claude Desktop, agregue la configuración del servidor:
En MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
En Windows: %APPDATA%/Claude/claude_desktop_config.json
Variables de entorno
OPENAI_API_KEY
: su clave API de OpenAIANTHROPIC_API_KEY
- Su clave API antrópicaOPENROUTER_API_KEY
- Su clave API de OpenRouter
Depuración
Dado que los servidores MCP se comunican a través de stdio, la depuración puede ser complicada. Recomendamos usar el Inspector MCP :
El Inspector proporcionará una URL para acceder a las herramientas de depuración en su navegador.
Actualizaciones recientes
Compatibilidad con las series Claude 3 y 3.5 (marzo de 2024)
- Se agregó soporte para los últimos modelos de Claude:
- Serie Claude 3 (Haiku, Soneto, Opus)
- Serie Claude 3.5 (Haiku, Soneto)
Recuperación de memoria ilimitada
- Se agregó soporte para recuperar el historial de conversaciones ilimitado
- Utilice
{ "limit": null }
con la herramientaget_memory
para recuperar todas las memorias almacenadas - Utilice
{ "limit": n }
para recuperar las n memorias más recientes - El límite predeterminado es 10 si no se especifica
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Un servidor basado en TypeScript que proporciona un sistema de memoria para modelos de lenguaje grandes (LLM), lo que permite a los usuarios interactuar con múltiples proveedores de LLM mientras mantiene el historial de conversaciones y ofrece herramientas para administrar proveedores y configuraciones de modelos.