Skip to main content
Glama

LLM Responses MCP Server

by kstrikis

LLM 応答 MCP サーバー

複数の AI エージェントが同じプロンプトに対する互いの応答を共有および読み取ることができるモデル コンテキスト プロトコル (MCP) サーバー。

概要

このプロジェクトは、2 つの主要なツール呼び出しを使用して MCP サーバーを実装します。

  1. submit-response : LLMがプロンプトに応答を送信できるようにする
  2. get-responses : LLM が特定のプロンプトに対する他の LLM からのすべての応答を取得できるようにします。

これにより、ユーザーが複数の AI エージェントに同じ質問をすることができ、その後、これらのツールを使用して、エージェントが他の LLM が同じ質問に対して何を言ったかを読み取って反映できるシナリオが可能になります。

インストール

# Install dependencies bun install

発達

# Build the TypeScript code bun run build # Start the server in development mode bun run dev

MCP Inspectorによるテスト

このプロジェクトには、MCP サーバーのテストとデバッグを行うツールであるMCP Inspectorのサポートが含まれています。

# Run the server with MCP Inspector bun run inspect

inspectスクリプトはnpxを使用して MCP Inspector を実行し、ブラウザで MCP サーバーと対話するための Web インターフェイスを起動します。

これにより、次のことが可能になります。

  • 利用可能なツールとリソースを調べる
  • 異なるパラメータによるテストツール呼び出し
  • サーバーの応答を表示する
  • MCPサーバーの実装をデバッグする

使用法

サーバーは 2 つのエンドポイントを公開します。

  • /sse - MCPクライアントが接続するためのServer-Sent Eventsエンドポイント
  • /messages - MCPクライアントがメッセージを送信するためのHTTPエンドポイント

MCPツール

送信応答

プロンプトに対して LLM の応答を送信します。

// Example tool call const result = await client.callTool({ name: 'submit-response', arguments: { llmId: 'claude-3-opus', prompt: 'What is the meaning of life?', response: 'The meaning of life is...' } });
レスポンスの取得

すべての LLM 応答を取得します (オプションでプロンプトでフィルタリング可能)。

// Example tool call const result = await client.callTool({ name: 'get-responses', arguments: { prompt: 'What is the meaning of life?' // Optional } });

ライセンス

マサチューセッツ工科大学

EC2へのデプロイ

このプロジェクトには、EC2 またはその他のサーバー環境への簡単なデプロイを可能にする Docker 構成が含まれています。

前提条件

  • Amazon Linux 2 または Ubuntu を実行する EC2 インスタンス
  • ポート 62886 で受信トラフィックを許可するように構成されたセキュリティ グループ
  • インスタンスへのSSHアクセス

展開手順

  1. リポジトリを EC2 インスタンスにクローンします。
    git clone <your-repository-url> cd <repository-directory>
  2. デプロイメント スクリプトを実行可能にします。
    chmod +x deploy.sh
  3. デプロイメント スクリプトを実行します。
    ./deploy.sh

スクリプトは次のようになります。

  • DockerとDocker Composeがまだインストールされていない場合はインストールします。
  • Dockerイメージをビルドする
  • コンテナをデタッチモードで起動する
  • MCP サーバーにアクセスできる公開 URL を表示します

手動展開

手動でデプロイする場合:

  1. Docker イメージをビルドします。
    docker-compose build
  2. コンテナを起動します。
    docker-compose up -d
  3. コンテナが実行中であることを確認します。
    docker-compose ps

サーバーへのアクセス

展開されると、MCP サーバーは次の場所からアクセスできるようになります。

  • http://<ec2-public-ip>:62886/sse - SSEエンドポイント
  • http://<ec2-public-ip>:62886/messages - メッセージエンドポイント

EC2 セキュリティ グループでポート 62886 が開いていることを確認してください。

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

複数の AI エージェントが同じプロンプトに対する互いの応答を共有して読み取ることができるため、他の LLM が同じ質問に対して言ったことを反映できるようになります。

  1. 概要
    1. インストール
      1. 発達
        1. MCP Inspectorによるテスト
          1. 使用法
            1. MCPツール
          2. ライセンス
            1. EC2へのデプロイ
              1. 前提条件
              2. 展開手順
              3. 手動展開
              4. サーバーへのアクセス

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Enables AI agents to interact with Novu's notification system, facilitating operations like sending notifications, managing subscribers, and organizing topics.
              Last updated -
              1
              TypeScript
            • -
              security
              F
              license
              -
              quality
              Enables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.
              Last updated -
              4
              TypeScript
              • Linux
              • Apple
            • -
              security
              A
              license
              -
              quality
              Serves prompt templates through a standardized protocol for transforming basic user queries into optimized prompts for AI systems.
              Last updated -
              Python
              Apache 2.0
            • -
              security
              A
              license
              -
              quality
              Enables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.
              Last updated -
              3
              Python
              MIT License
              • Linux
              • Apple

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/kstrikis/ephor-mcp'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server