LLM 応答 MCP サーバー
複数の AI エージェントが同じプロンプトに対する互いの応答を共有および読み取ることができるモデル コンテキスト プロトコル (MCP) サーバー。
概要
このプロジェクトは、2 つの主要なツール呼び出しを使用して MCP サーバーを実装します。
submit-response
: LLMがプロンプトに応答を送信できるようにするget-responses
: LLM が特定のプロンプトに対する他の LLM からのすべての応答を取得できるようにします。
これにより、ユーザーが複数の AI エージェントに同じ質問をすることができ、その後、これらのツールを使用して、エージェントが他の LLM が同じ質問に対して何を言ったかを読み取って反映できるシナリオが可能になります。
インストール
発達
MCP Inspectorによるテスト
このプロジェクトには、MCP サーバーのテストとデバッグを行うツールであるMCP Inspectorのサポートが含まれています。
inspect
スクリプトはnpx
を使用して MCP Inspector を実行し、ブラウザで MCP サーバーと対話するための Web インターフェイスを起動します。
これにより、次のことが可能になります。
- 利用可能なツールとリソースを調べる
- 異なるパラメータによるテストツール呼び出し
- サーバーの応答を表示する
- MCPサーバーの実装をデバッグする
使用法
サーバーは 2 つのエンドポイントを公開します。
/sse
- MCPクライアントが接続するためのServer-Sent Eventsエンドポイント/messages
- MCPクライアントがメッセージを送信するためのHTTPエンドポイント
MCPツール
送信応答
プロンプトに対して LLM の応答を送信します。
レスポンスの取得
すべての LLM 応答を取得します (オプションでプロンプトでフィルタリング可能)。
ライセンス
マサチューセッツ工科大学
EC2へのデプロイ
このプロジェクトには、EC2 またはその他のサーバー環境への簡単なデプロイを可能にする Docker 構成が含まれています。
前提条件
- Amazon Linux 2 または Ubuntu を実行する EC2 インスタンス
- ポート 62886 で受信トラフィックを許可するように構成されたセキュリティ グループ
- インスタンスへのSSHアクセス
展開手順
- リポジトリを EC2 インスタンスにクローンします。
- デプロイメント スクリプトを実行可能にします。
- デプロイメント スクリプトを実行します。
スクリプトは次のようになります。
- DockerとDocker Composeがまだインストールされていない場合はインストールします。
- Dockerイメージをビルドする
- コンテナをデタッチモードで起動する
- MCP サーバーにアクセスできる公開 URL を表示します
手動展開
手動でデプロイする場合:
- Docker イメージをビルドします。
- コンテナを起動します。
- コンテナが実行中であることを確認します。
サーバーへのアクセス
展開されると、MCP サーバーは次の場所からアクセスできるようになります。
http://<ec2-public-ip>:62886/sse
- SSEエンドポイントhttp://<ec2-public-ip>:62886/messages
- メッセージエンドポイント
EC2 セキュリティ グループでポート 62886 が開いていることを確認してください。
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
複数の AI エージェントが同じプロンプトに対する互いの応答を共有して読み取ることができるため、他の LLM が同じ質問に対して言ったことを反映できるようになります。
Related MCP Servers
- -securityFlicense-qualityEnables AI agents to interact with Novu's notification system, facilitating operations like sending notifications, managing subscribers, and organizing topics.Last updated -1TypeScript
- -securityFlicense-qualityEnables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.Last updated -4TypeScript
- -securityAlicense-qualityServes prompt templates through a standardized protocol for transforming basic user queries into optimized prompts for AI systems.Last updated -PythonApache 2.0
- -securityAlicense-qualityEnables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.Last updated -3PythonMIT License