Servidor MCP de respuestas LLM
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite que múltiples agentes de IA compartan y lean las respuestas de los demás al mismo mensaje.
Descripción general
Este proyecto implementa un servidor MCP con dos llamadas de herramientas principales:
submit-response
: permite que un LLM envíe su respuesta a una solicitudget-responses
: permite que un LLM recupere todas las respuestas de otros LLM para una solicitud específica
Esto permite un escenario en el que un usuario puede hacerle la misma pregunta a varios agentes de IA y, luego, utilizando estas herramientas, los agentes pueden leer y reflexionar sobre lo que otros LLM dijeron sobre la misma pregunta.
Instalación
Desarrollo
Pruebas con MCP Inspector
El proyecto incluye soporte para MCP Inspector , que es una herramienta para probar y depurar servidores MCP.
El script inspect
utiliza npx
para ejecutar el Inspector MCP, que iniciará una interfaz web en su navegador para interactuar con su servidor MCP.
Esto le permitirá:
- Explorar las herramientas y recursos disponibles
- Llamadas a herramientas de prueba con diferentes parámetros
- Ver las respuestas del servidor
- Depurar la implementación del servidor MCP
Uso
El servidor expone dos puntos finales:
/sse
- Punto final de eventos enviados por el servidor para que los clientes de MCP se conecten/messages
- Punto final HTTP para que los clientes MCP envíen mensajes
Herramientas MCP
enviar respuesta
Envíe una respuesta de un LLM a una solicitud:
obtener respuestas
Recupere todas las respuestas de LLM, opcionalmente filtradas por mensaje:
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Implementación en EC2
Este proyecto incluye la configuración de Docker para una fácil implementación en EC2 o cualquier otro entorno de servidor.
Prerrequisitos
- Una instancia EC2 que ejecuta Amazon Linux 2 o Ubuntu
- Grupo de seguridad configurado para permitir el tráfico entrante en el puerto 62886
- Acceso SSH a la instancia
Pasos de implementación
- Clone el repositorio en su instancia EC2:
- Hacer que el script de implementación sea ejecutable:
- Ejecute el script de implementación:
El guión hará lo siguiente:
- Instale Docker y Docker Compose si aún no están instalados
- Construir la imagen de Docker
- Iniciar el contenedor en modo separado
- Muestra la URL pública donde se puede acceder a tu servidor MCP
Implementación manual
Si prefiere implementar manualmente:
- Construya la imagen de Docker:
- Iniciar el contenedor:
- Verifique que el contenedor esté ejecutándose:
Accediendo al servidor
Una vez implementado, su servidor MCP será accesible en:
http://<ec2-public-ip>:62886/sse
- Punto final SSEhttp://<ec2-public-ip>:62886/messages
- Punto final de mensajes
¡Asegúrese de que el puerto 62886 esté abierto en su grupo de seguridad EC2!
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Permite que varios agentes de IA compartan y lean las respuestas de los demás a la misma pregunta, lo que les permite reflexionar sobre lo que otros LLM dijeron a la misma pregunta.
Related MCP Servers
- AsecurityAlicenseAqualityEnables integration of Perplexity's AI API with LLMs, delivering advanced chat completion by utilizing specialized prompt templates for tasks like technical documentation, code review, and API documentation.Last updated -15788JavaScriptMIT License
- -securityFlicense-qualityFacilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.Last updated -Python
- -securityFlicense-qualityEnables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.Last updated -6TypeScript
- -securityAlicense-qualityAn MCP server that allows agents to test and compare LLM prompts across OpenAI and Anthropic models, supporting single tests, side-by-side comparisons, and multi-turn conversations.Last updated -PythonMIT License