Servidor MCP de respuestas LLM
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite que múltiples agentes de IA compartan y lean las respuestas de los demás al mismo mensaje.
Descripción general
Este proyecto implementa un servidor MCP con dos llamadas de herramientas principales:
submit-response: permite que un LLM envíe su respuesta a una solicitudget-responses: permite que un LLM recupere todas las respuestas de otros LLM para una solicitud específica
Esto permite un escenario en el que un usuario puede hacerle la misma pregunta a varios agentes de IA y, luego, utilizando estas herramientas, los agentes pueden leer y reflexionar sobre lo que otros LLM dijeron sobre la misma pregunta.
Related MCP server: Model Context Provider (MCP) Server
Instalación
# Install dependencies
bun installDesarrollo
# Build the TypeScript code
bun run build
# Start the server in development mode
bun run devPruebas con MCP Inspector
El proyecto incluye soporte para MCP Inspector , que es una herramienta para probar y depurar servidores MCP.
# Run the server with MCP Inspector
bun run inspectEl script inspect utiliza npx para ejecutar el Inspector MCP, que iniciará una interfaz web en su navegador para interactuar con su servidor MCP.
Esto le permitirá:
Explorar las herramientas y recursos disponibles
Llamadas a herramientas de prueba con diferentes parámetros
Ver las respuestas del servidor
Depurar la implementación del servidor MCP
Uso
El servidor expone dos puntos finales:
/sse- Punto final de eventos enviados por el servidor para que los clientes de MCP se conecten/messages- Punto final HTTP para que los clientes MCP envíen mensajes
Herramientas MCP
enviar respuesta
Envíe una respuesta de un LLM a una solicitud:
// Example tool call
const result = await client.callTool({
name: 'submit-response',
arguments: {
llmId: 'claude-3-opus',
prompt: 'What is the meaning of life?',
response: 'The meaning of life is...'
}
});obtener respuestas
Recupere todas las respuestas de LLM, opcionalmente filtradas por mensaje:
// Example tool call
const result = await client.callTool({
name: 'get-responses',
arguments: {
prompt: 'What is the meaning of life?' // Optional
}
});Licencia
Instituto Tecnológico de Massachusetts (MIT)
Implementación en EC2
Este proyecto incluye la configuración de Docker para una fácil implementación en EC2 o cualquier otro entorno de servidor.
Prerrequisitos
Una instancia EC2 que ejecuta Amazon Linux 2 o Ubuntu
Grupo de seguridad configurado para permitir el tráfico entrante en el puerto 62886
Acceso SSH a la instancia
Pasos de implementación
Clone el repositorio en su instancia EC2:
git clone <your-repository-url> cd <repository-directory>Hacer que el script de implementación sea ejecutable:
chmod +x deploy.shEjecute el script de implementación:
./deploy.sh
El guión hará lo siguiente:
Instale Docker y Docker Compose si aún no están instalados
Construir la imagen de Docker
Iniciar el contenedor en modo separado
Muestra la URL pública donde se puede acceder a tu servidor MCP
Implementación manual
Si prefiere implementar manualmente:
Construya la imagen de Docker:
docker-compose buildIniciar el contenedor:
docker-compose up -dVerifique que el contenedor esté ejecutándose:
docker-compose ps
Accediendo al servidor
Una vez implementado, su servidor MCP será accesible en:
http://<ec2-public-ip>:62886/sse- Punto final SSEhttp://<ec2-public-ip>:62886/messages- Punto final de mensajes
¡Asegúrese de que el puerto 62886 esté abierto en su grupo de seguridad EC2!