Skip to main content
Glama

Servidor MCP MemGPT

Un servidor MCP basado en TypeScript que implementa un sistema de memoria para LLM. Proporciona herramientas para chatear con diferentes proveedores de LLM y mantiene el historial de conversaciones.

Características

Herramientas

  • chat - Envía un mensaje al proveedor actual de LLM

    • Toma un parámetro de mensaje

    • Admite múltiples proveedores (OpenAI, Anthropic, OpenRouter, Ollama)

  • get_memory - Recuperar el historial de conversaciones

    • Parámetro limit opcional para especificar el número de memorias a recuperar

    • limit: null para recuperación de memoria ilimitada

    • Devuelve recuerdos en orden cronológico con marcas de tiempo.

  • clear_memory - Borrar el historial de conversaciones

    • Elimina todos los recuerdos almacenados

  • use_provider - Cambiar entre diferentes proveedores de LLM

    • Compatible con OpenAI, Anthropic, OpenRouter y Ollama

    • Persiste la selección del proveedor

  • use_model - Cambiar a un modelo diferente para el proveedor actual

    • Admite modelos específicos del proveedor:

      • Modelos antrópicos de Claude:

        • Serie Claude 3:

          • claude-3-haiku : Tiempos de respuesta más rápidos, ideales para tareas como atención al cliente y moderación de contenido.

          • claude-3-sonnet : Rendimiento equilibrado para uso general

          • claude-3-opus : Modelo avanzado para razonamiento complejo y tareas de alto rendimiento

        • Serie Claude 3.5:

          • claude-3.5-haiku : Mayor velocidad y rentabilidad

          • claude-3.5-sonnet : Rendimiento superior con capacidades de interacción con la computadora

      • OpenAI: 'gpt-4o', 'gpt-4o-mini', 'gpt-4-turbo'

      • OpenRouter: cualquier modelo en formato 'proveedor/modelo' (por ejemplo, 'openai/gpt-4', 'anthropic/claude-2')

      • Ollama: Cualquier modelo disponible localmente (por ejemplo, 'llama2', 'codellama')

    • Persiste la selección del modelo

Related MCP server: File Context MCP

Desarrollo

Instalar dependencias:

npm install

Construir el servidor:

npm run build

Para desarrollo con reconstrucción automática:

npm run watch

Instalación

Para utilizar con Claude Desktop, agregue la configuración del servidor:

En MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json En Windows: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "letta-memgpt": { "command": "/path/to/memgpt-server/build/index.js", "env": { "OPENAI_API_KEY": "your-openai-key", "ANTHROPIC_API_KEY": "your-anthropic-key", "OPENROUTER_API_KEY": "your-openrouter-key" } } } }

Variables de entorno

  • OPENAI_API_KEY : su clave API de OpenAI

  • ANTHROPIC_API_KEY - Su clave API antrópica

  • OPENROUTER_API_KEY - Su clave API de OpenRouter

Depuración

Dado que los servidores MCP se comunican a través de stdio, la depuración puede ser complicada. Recomendamos usar el Inspector MCP :

npm run inspector

El Inspector proporcionará una URL para acceder a las herramientas de depuración en su navegador.

Actualizaciones recientes

Compatibilidad con las series Claude 3 y 3.5 (marzo de 2024)

  • Se agregó soporte para los últimos modelos de Claude:

    • Serie Claude 3 (Haiku, Soneto, Opus)

    • Serie Claude 3.5 (Haiku, Soneto)

Recuperación de memoria ilimitada

  • Se agregó soporte para recuperar el historial de conversaciones ilimitado

  • Utilice { "limit": null } con la herramienta get_memory para recuperar todas las memorias almacenadas

  • Utilice { "limit": n } para recuperar las n memorias más recientes

  • El límite predeterminado es 10 si no se especifica

-
security - not tested
F
license - not found
-
quality - not tested

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Vic563/Memgpt-MCP-Server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server