Skip to main content
Glama

LLM Responses MCP Server

by kstrikis

Servidor MCP de respuestas LLM

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite que múltiples agentes de IA compartan y lean las respuestas de los demás al mismo mensaje.

Descripción general

Este proyecto implementa un servidor MCP con dos llamadas de herramientas principales:

  1. submit-response : permite que un LLM envíe su respuesta a una solicitud
  2. get-responses : permite que un LLM recupere todas las respuestas de otros LLM para una solicitud específica

Esto permite un escenario en el que un usuario puede hacerle la misma pregunta a varios agentes de IA y, luego, utilizando estas herramientas, los agentes pueden leer y reflexionar sobre lo que otros LLM dijeron sobre la misma pregunta.

Instalación

# Install dependencies bun install

Desarrollo

# Build the TypeScript code bun run build # Start the server in development mode bun run dev

Pruebas con MCP Inspector

El proyecto incluye soporte para MCP Inspector , que es una herramienta para probar y depurar servidores MCP.

# Run the server with MCP Inspector bun run inspect

El script inspect utiliza npx para ejecutar el Inspector MCP, que iniciará una interfaz web en su navegador para interactuar con su servidor MCP.

Esto le permitirá:

  • Explorar las herramientas y recursos disponibles
  • Llamadas a herramientas de prueba con diferentes parámetros
  • Ver las respuestas del servidor
  • Depurar la implementación del servidor MCP

Uso

El servidor expone dos puntos finales:

  • /sse - Punto final de eventos enviados por el servidor para que los clientes de MCP se conecten
  • /messages - Punto final HTTP para que los clientes MCP envíen mensajes

Herramientas MCP

enviar respuesta

Envíe una respuesta de un LLM a una solicitud:

// Example tool call const result = await client.callTool({ name: 'submit-response', arguments: { llmId: 'claude-3-opus', prompt: 'What is the meaning of life?', response: 'The meaning of life is...' } });
obtener respuestas

Recupere todas las respuestas de LLM, opcionalmente filtradas por mensaje:

// Example tool call const result = await client.callTool({ name: 'get-responses', arguments: { prompt: 'What is the meaning of life?' // Optional } });

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Implementación en EC2

Este proyecto incluye la configuración de Docker para una fácil implementación en EC2 o cualquier otro entorno de servidor.

Prerrequisitos

  • Una instancia EC2 que ejecuta Amazon Linux 2 o Ubuntu
  • Grupo de seguridad configurado para permitir el tráfico entrante en el puerto 62886
  • Acceso SSH a la instancia

Pasos de implementación

  1. Clone el repositorio en su instancia EC2:
    git clone <your-repository-url> cd <repository-directory>
  2. Hacer que el script de implementación sea ejecutable:
    chmod +x deploy.sh
  3. Ejecute el script de implementación:
    ./deploy.sh

El guión hará lo siguiente:

  • Instale Docker y Docker Compose si aún no están instalados
  • Construir la imagen de Docker
  • Iniciar el contenedor en modo separado
  • Muestra la URL pública donde se puede acceder a tu servidor MCP

Implementación manual

Si prefiere implementar manualmente:

  1. Construya la imagen de Docker:
    docker-compose build
  2. Iniciar el contenedor:
    docker-compose up -d
  3. Verifique que el contenedor esté ejecutándose:
    docker-compose ps

Accediendo al servidor

Una vez implementado, su servidor MCP será accesible en:

  • http://<ec2-public-ip>:62886/sse - Punto final SSE
  • http://<ec2-public-ip>:62886/messages - Punto final de mensajes

¡Asegúrese de que el puerto 62886 esté abierto en su grupo de seguridad EC2!

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Permite que varios agentes de IA compartan y lean las respuestas de los demás a la misma pregunta, lo que les permite reflexionar sobre lo que otros LLM dijeron a la misma pregunta.

  1. Descripción general
    1. Instalación
      1. Desarrollo
        1. Pruebas con MCP Inspector
          1. Uso
            1. Herramientas MCP
          2. Licencia
            1. Implementación en EC2
              1. Prerrequisitos
              2. Pasos de implementación
              3. Implementación manual
              4. Accediendo al servidor

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Enables AI agents to interact with Novu's notification system, facilitating operations like sending notifications, managing subscribers, and organizing topics.
              Last updated -
              1
              TypeScript
            • -
              security
              F
              license
              -
              quality
              Enables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.
              Last updated -
              4
              TypeScript
              • Linux
              • Apple
            • -
              security
              A
              license
              -
              quality
              Serves prompt templates through a standardized protocol for transforming basic user queries into optimized prompts for AI systems.
              Last updated -
              Python
              Apache 2.0
            • -
              security
              A
              license
              -
              quality
              Enables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.
              Last updated -
              3
              Python
              MIT License
              • Linux
              • Apple

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/kstrikis/ephor-mcp'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server