Skip to main content
Glama

MCP: Model Context Protocol

MCP: Protocolo de Contexto Modelo

Descripción del proyecto

MCP (Model Context Protocol) es un sistema para gestionar el contexto al interactuar con modelos de lenguaje (LLM). El sistema permite guardar el contexto de los diálogos entre solicitudes, lo que permite al modelo de lenguaje "recordar" interacciones anteriores.

Peculiaridades

  • Mantener y gestionar el contexto entre solicitudes
  • Integración con la API de Google Gemini
  • Posibilidad de utilizar múltiples sesiones independientes
  • Cambiar entre sesiones mediante identificadores
  • Almacenamiento local del historial de diálogos

Tecnologías

  • Python 3
  • API rápida
  • API de Géminis
  • Uvicornio

Instalación

  1. Repositorio de clones:
git clone https://github.com/Alex-Replicator/mcp-letta.git cd mcp-letta
  1. Crear y activar un entorno virtual:
python -m venv venv source venv/bin/activate # для Linux/Mac # или venv\Scripts\activate # для Windows
  1. Instalar dependencias:
pip install -r requirements.txt
  1. Cree un archivo .env y agregue la clave API:
GEMINI_API_KEY=ваш_ключ_gemini_api

Uso

Iniciando el servidor

python mcp_server.py

El servidor estará disponible en: http://localhost:9999

Usando el cliente

Enviar solicitud (creará una nueva sesión):

python mcp_client.py --new "Ваш запрос к модели"

Continuar el diálogo en la misma sesión:

python mcp_client.py "Ваш следующий запрос"

Utilice una sesión específica por ID:

python mcp_client.py --id "id_сессии" "Ваш запрос"

Mostrar lista de todas las sesiones:

python mcp_client.py --list

Estructura del proyecto

  • mcp_server.py - Servidor principal de MCP
  • mcp_client.py - Cliente para la interacción con el servidor
  • requirements.txt - Dependencias del proyecto

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Autor

Alex Replicador - alex.replicator@gmail.com

GitHub: https://github.com/Alex-Replicator/

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un sistema que administra el contexto para las interacciones del modelo de lenguaje, permitiendo que el modelo recuerde interacciones anteriores en múltiples sesiones independientes utilizando la API de Gemini.

  1. Descripción del proyecto
    1. Peculiaridades
      1. Tecnologías
        1. Instalación
          1. Uso
            1. Iniciando el servidor
            2. Usando el cliente
          2. Estructura del proyecto
            1. Licencia
              1. Autor

                Related MCP Servers

                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server that allows Claude to create flashcards for Rember, helping users study and remember information through spaced repetition reviews.
                  Last updated -
                  88
                  16
                  TypeScript
                  MIT License
                • -
                  security
                  F
                  license
                  -
                  quality
                  A server implementing the Model Context Protocol that enables AI assistants like Claude to interact with Google's Gemini API for text generation, text analysis, and chat conversations.
                  Last updated -
                  Python
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server implementation that provides a standardized interface for applications to interact with OpenRouter's language models through a unified conversation management system.
                  Last updated -
                  TypeScript
                  MIT License
                • -
                  security
                  F
                  license
                  -
                  quality
                  A server that manages conversation context for LLM interactions, storing recent prompts and providing relevant context for each user via REST API endpoints.
                  Last updated -
                  932
                  TypeScript

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/Alex-Replicator/mcp-letta'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server