Integrations
Uses FastAPI to create a REST API server that handles requests for managing conversation context and interacting with language models.
Integrates with Google Gemini API to enable context-aware conversations with the language model, allowing the system to maintain conversation history across multiple requests.
MCP: Protocolo de Contexto Modelo
Descripción del proyecto
MCP (Model Context Protocol) es un sistema para gestionar el contexto al interactuar con modelos de lenguaje (LLM). El sistema permite guardar el contexto de los diálogos entre solicitudes, lo que permite al modelo de lenguaje "recordar" interacciones anteriores.
Peculiaridades
- Mantener y gestionar el contexto entre solicitudes
- Integración con la API de Google Gemini
- Posibilidad de utilizar múltiples sesiones independientes
- Cambiar entre sesiones mediante identificadores
- Almacenamiento local del historial de diálogos
Tecnologías
- Python 3
- API rápida
- API de Géminis
- Uvicornio
Instalación
- Repositorio de clones:
- Crear y activar un entorno virtual:
- Instalar dependencias:
- Cree un archivo
.env
y agregue la clave API:
Uso
Iniciando el servidor
El servidor estará disponible en: http://localhost:9999
Usando el cliente
Enviar solicitud (creará una nueva sesión):
Continuar el diálogo en la misma sesión:
Utilice una sesión específica por ID:
Mostrar lista de todas las sesiones:
Estructura del proyecto
mcp_server.py
- Servidor principal de MCPmcp_client.py
- Cliente para la interacción con el servidorrequirements.txt
- Dependencias del proyecto
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Autor
Alex Replicador - alex.replicator@gmail.com
This server cannot be installed
Un sistema que administra el contexto para las interacciones del modelo de lenguaje, permitiendo que el modelo recuerde interacciones anteriores en múltiples sesiones independientes utilizando la API de Gemini.