MemGPT MCP Server

by Vic563

Integrations

  • Allows communication with locally available Ollama models (like llama2, codellama) while maintaining persistent conversation history.

  • Enables messaging with OpenAI models including gpt-4o, gpt-4o-mini, and gpt-4-turbo while preserving conversation memory across sessions.

Servidor MCP MemGPT

Un servidor MCP basado en TypeScript que implementa un sistema de memoria para LLM. Proporciona herramientas para chatear con diferentes proveedores de LLM y mantiene el historial de conversaciones.

Características

Herramientas

  • chat - Envía un mensaje al proveedor actual de LLM
    • Toma un parámetro de mensaje
    • Admite múltiples proveedores (OpenAI, Anthropic, OpenRouter, Ollama)
  • get_memory - Recuperar el historial de conversaciones
    • Parámetro limit opcional para especificar el número de memorias a recuperar
    • limit: null para recuperación de memoria ilimitada
    • Devuelve recuerdos en orden cronológico con marcas de tiempo.
  • clear_memory - Borrar el historial de conversaciones
    • Elimina todos los recuerdos almacenados
  • use_provider - Cambiar entre diferentes proveedores de LLM
    • Compatible con OpenAI, Anthropic, OpenRouter y Ollama
    • Persiste la selección del proveedor
  • use_model - Cambiar a un modelo diferente para el proveedor actual
    • Admite modelos específicos del proveedor:
      • Modelos antrópicos de Claude:
        • Serie Claude 3:
          • claude-3-haiku : Tiempos de respuesta más rápidos, ideales para tareas como atención al cliente y moderación de contenido.
          • claude-3-sonnet : Rendimiento equilibrado para uso general
          • claude-3-opus : Modelo avanzado para razonamiento complejo y tareas de alto rendimiento
        • Serie Claude 3.5:
          • claude-3.5-haiku : Mayor velocidad y rentabilidad
          • claude-3.5-sonnet : Rendimiento superior con capacidades de interacción con la computadora
      • OpenAI: 'gpt-4o', 'gpt-4o-mini', 'gpt-4-turbo'
      • OpenRouter: cualquier modelo en formato 'proveedor/modelo' (por ejemplo, 'openai/gpt-4', 'anthropic/claude-2')
      • Ollama: Cualquier modelo disponible localmente (por ejemplo, 'llama2', 'codellama')
    • Persiste la selección del modelo

Desarrollo

Instalar dependencias:

npm install

Construir el servidor:

npm run build

Para desarrollo con reconstrucción automática:

npm run watch

Instalación

Para utilizar con Claude Desktop, agregue la configuración del servidor:

En MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json En Windows: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "letta-memgpt": { "command": "/path/to/memgpt-server/build/index.js", "env": { "OPENAI_API_KEY": "your-openai-key", "ANTHROPIC_API_KEY": "your-anthropic-key", "OPENROUTER_API_KEY": "your-openrouter-key" } } } }

Variables de entorno

  • OPENAI_API_KEY : su clave API de OpenAI
  • ANTHROPIC_API_KEY - Su clave API antrópica
  • OPENROUTER_API_KEY - Su clave API de OpenRouter

Depuración

Dado que los servidores MCP se comunican a través de stdio, la depuración puede ser complicada. Recomendamos usar el Inspector MCP :

npm run inspector

El Inspector proporcionará una URL para acceder a las herramientas de depuración en su navegador.

Actualizaciones recientes

Compatibilidad con las series Claude 3 y 3.5 (marzo de 2024)

  • Se agregó soporte para los últimos modelos de Claude:
    • Serie Claude 3 (Haiku, Soneto, Opus)
    • Serie Claude 3.5 (Haiku, Soneto)

Recuperación de memoria ilimitada

  • Se agregó soporte para recuperar el historial de conversaciones ilimitado
  • Utilice { "limit": null } con la herramienta get_memory para recuperar todas las memorias almacenadas
  • Utilice { "limit": n } para recuperar las n memorias más recientes
  • El límite predeterminado es 10 si no se especifica
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor basado en TypeScript que proporciona un sistema de memoria para modelos de lenguaje grandes (LLM), lo que permite a los usuarios interactuar con múltiples proveedores de LLM mientras mantiene el historial de conversaciones y ofrece herramientas para administrar proveedores y configuraciones de modelos.

  1. Features
    1. Tools
  2. Development
    1. Installation
      1. Environment Variables
      2. Debugging
    2. Recent Updates
      1. Claude 3 and 3.5 Series Support (March 2024)
      2. Unlimited Memory Retrieval
    ID: 3cynbzxe8h