LLM 応答 MCP サーバー
複数の AI エージェント間の共同討論を可能にし、ユーザーのプロンプトについて議論して合意に達することを可能にするモデル コンテキスト プロトコル (MCP) サーバー。
概要
このプロジェクトでは、次の主な機能を使用して、LLM 間のマルチターン会話を容易にする MCP サーバーを実装します。
セッションベースのコラボレーション- LLMは討論セッションの参加者として登録できます
審議による合意形成- LLMは合意に達するために長時間の議論に参加できる
リアルタイムのレスポンス共有- すべての参加者がお互いの投稿を閲覧し、返信することができます
サーバーは、次の 4 つの主要なツール呼び出しを提供します。
register-participant: LLMが最初の応答でコラボレーションセッションに参加できるようにしますsubmit-response: LLMが討論中にフォローアップの回答を提出できるようにしますget-responses: LLMがセッション内の他のLLMからのすべての応答を取得できるようにします。get-session-status: LLMが登録待機期間が完了したかどうかを確認できるようにします。
これにより、複数の AI エージェント (「Council of Ephors」など) がユーザーの質問について長時間にわたって審議し、確固たる合意に達するまで互いに議論するシナリオが可能になります。
インストール
発達
MCP Inspectorによるテスト
このプロジェクトには、MCP サーバーのテストとデバッグを行うツールであるMCP Inspectorのサポートが含まれています。
inspectスクリプトはnpxを使用して MCP Inspector を実行し、ブラウザで MCP サーバーと対話するための Web インターフェイスを起動します。
これにより、次のことが可能になります。
利用可能なツールとリソースを調べる
異なるパラメータによるテストツール呼び出し
サーバーの応答を表示する
MCPサーバーの実装をデバッグする
使用法
サーバーは 2 つのエンドポイントを公開します。
/sse- MCPクライアントが接続するためのServer-Sent Eventsエンドポイント/messages- MCPクライアントがメッセージを送信するためのHTTPエンドポイント
MCPツール
参加者登録
コラボレーション セッションの参加者として登録します。
サーバーは、最後の参加者が参加してから3秒間の登録期間を待ってから応答します。応答にはすべての参加者の最初の応答が含まれるため、各LLMは登録期間の終了時に他の参加者の意見に即座に応答できます。
送信応答
討論中にフォローアップの回答を送信します。
レスポンスの取得
討論セッションからのすべての回答を取得します。
回答には参加者全員の投稿が時系列順に表示されます。
セッションステータスの取得
登録待機期間が経過していないか確認します。
共同討論フロー
LLMは、プロンプトに対する最初の回答で参加者として登録します。
サーバーは最後の登録後3秒間待機してから応答を送信します。
登録期間が終了すると、参加者全員に最初の回答の概要が送られます。
参加者はその後、お互いの意見に応じてフォローアップの回答を提出することができる。
議論は参加者が合意に達するか、最大ラウンド数に達するまで続けられる。
ライセンス
マサチューセッツ工科大学
EC2へのデプロイ
このプロジェクトには、EC2 またはその他のサーバー環境への簡単なデプロイを可能にする Docker 構成が含まれています。
前提条件
Amazon Linux 2 または Ubuntu を実行する EC2 インスタンス
ポート 62887 で受信トラフィックを許可するように構成されたセキュリティ グループ
インスタンスへのSSHアクセス
展開手順
リポジトリを EC2 インスタンスにクローンします。
git clone <your-repository-url> cd <repository-directory>デプロイメント スクリプトを実行可能にします。
chmod +x deploy.shデプロイメント スクリプトを実行します。
./deploy.sh
スクリプトは次のようになります。
DockerとDocker Composeがまだインストールされていない場合はインストールします。
Dockerイメージをビルドする
コンテナをデタッチモードで起動する
MCP サーバーにアクセスできる公開 URL を表示します
手動展開
手動でデプロイする場合:
Docker イメージをビルドします。
docker-compose buildコンテナを起動します。
docker-compose up -dコンテナが実行中であることを確認します。
docker-compose ps
サーバーへのアクセス
展開されると、MCP サーバーは次の場所からアクセスできるようになります。
http://<ec2-public-ip>:62887/sse- SSEエンドポイントhttp://<ec2-public-ip>:62887/messages- メッセージエンドポイント
EC2 セキュリティ グループでポート 62887 が開いていることを確認してください。
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
複数の AI エージェント間の共同討論を可能にし、ユーザーのプロンプトについて議論して合意に達することを可能にするモデル コンテキスト プロトコル サーバー。
Related MCP Servers
- -security-license-qualityA Model Context Protocol server that enables role-based context management for AI agents, allowing users to establish specific instructions, maintain partitioned memory, and adapt tone for different agent roles in their system.Last updated -1
- -security-license-qualityA comprehensive Model Context Protocol server implementation that enables AI assistants to interact with file systems, databases, GitHub repositories, web resources, and system tools while maintaining security and control.Last updated -361
CodeAlive MCPofficial
-security-license-qualityA Model Context Protocol server that enhances AI agents by providing deep semantic understanding of codebases, enabling more intelligent interactions through advanced code search and contextual awareness.Last updated -67MIT License- Asecurity-licenseAqualityA Model Context Protocol server that enables AI assistants to communicate with each other using Inter-Process Communication, featuring natural language commands and cross-platform compatibility.Last updated -9107MIT License