LLM 応答 MCP サーバー
複数の AI エージェントが同じプロンプトに対する互いの応答を共有および読み取ることができるモデル コンテキスト プロトコル (MCP) サーバー。
概要
このプロジェクトは、2 つの主要なツール呼び出しを使用して MCP サーバーを実装します。
submit-response: LLMがプロンプトに応答を送信できるようにするget-responses: LLM が特定のプロンプトに対する他の LLM からのすべての応答を取得できるようにします。
これにより、ユーザーが複数の AI エージェントに同じ質問をすることができ、その後、これらのツールを使用して、エージェントが他の LLM が同じ質問に対して何を言ったかを読み取って反映できるシナリオが可能になります。
Related MCP server: Model Context Provider (MCP) Server
インストール
発達
MCP Inspectorによるテスト
このプロジェクトには、MCP サーバーのテストとデバッグを行うツールであるMCP Inspectorのサポートが含まれています。
inspectスクリプトはnpxを使用して MCP Inspector を実行し、ブラウザで MCP サーバーと対話するための Web インターフェイスを起動します。
これにより、次のことが可能になります。
利用可能なツールとリソースを調べる
異なるパラメータによるテストツール呼び出し
サーバーの応答を表示する
MCPサーバーの実装をデバッグする
使用法
サーバーは 2 つのエンドポイントを公開します。
/sse- MCPクライアントが接続するためのServer-Sent Eventsエンドポイント/messages- MCPクライアントがメッセージを送信するためのHTTPエンドポイント
MCPツール
送信応答
プロンプトに対して LLM の応答を送信します。
レスポンスの取得
すべての LLM 応答を取得します (オプションでプロンプトでフィルタリング可能)。
ライセンス
マサチューセッツ工科大学
EC2へのデプロイ
このプロジェクトには、EC2 またはその他のサーバー環境への簡単なデプロイを可能にする Docker 構成が含まれています。
前提条件
Amazon Linux 2 または Ubuntu を実行する EC2 インスタンス
ポート 62886 で受信トラフィックを許可するように構成されたセキュリティ グループ
インスタンスへのSSHアクセス
展開手順
リポジトリを EC2 インスタンスにクローンします。
git clone <your-repository-url> cd <repository-directory>デプロイメント スクリプトを実行可能にします。
chmod +x deploy.shデプロイメント スクリプトを実行します。
./deploy.sh
スクリプトは次のようになります。
DockerとDocker Composeがまだインストールされていない場合はインストールします。
Dockerイメージをビルドする
コンテナをデタッチモードで起動する
MCP サーバーにアクセスできる公開 URL を表示します
手動展開
手動でデプロイする場合:
Docker イメージをビルドします。
docker-compose buildコンテナを起動します。
docker-compose up -dコンテナが実行中であることを確認します。
docker-compose ps
サーバーへのアクセス
展開されると、MCP サーバーは次の場所からアクセスできるようになります。
http://<ec2-public-ip>:62886/sse- SSEエンドポイントhttp://<ec2-public-ip>:62886/messages- メッセージエンドポイント
EC2 セキュリティ グループでポート 62886 が開いていることを確認してください。