hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
LLM 応答 MCP サーバー
複数の AI エージェントが同じプロンプトに対する互いの応答を共有および読み取ることができるモデル コンテキスト プロトコル (MCP) サーバー。
概要
このプロジェクトは、2 つの主要なツール呼び出しを使用して MCP サーバーを実装します。
submit-response
: LLMがプロンプトに応答を送信できるようにするget-responses
: LLM が特定のプロンプトに対する他の LLM からのすべての応答を取得できるようにします。
これにより、ユーザーが複数の AI エージェントに同じ質問をすることができ、その後、これらのツールを使用して、エージェントが他の LLM が同じ質問に対して何を言ったかを読み取って反映できるシナリオが可能になります。
インストール
発達
MCP Inspectorによるテスト
このプロジェクトには、MCP サーバーのテストとデバッグを行うツールであるMCP Inspectorのサポートが含まれています。
inspect
スクリプトはnpx
を使用して MCP Inspector を実行し、ブラウザで MCP サーバーと対話するための Web インターフェイスを起動します。
これにより、次のことが可能になります。
- 利用可能なツールとリソースを調べる
- 異なるパラメータによるテストツール呼び出し
- サーバーの応答を表示する
- MCPサーバーの実装をデバッグする
使用法
サーバーは 2 つのエンドポイントを公開します。
/sse
- MCPクライアントが接続するためのServer-Sent Eventsエンドポイント/messages
- MCPクライアントがメッセージを送信するためのHTTPエンドポイント
MCPツール
送信応答
プロンプトに対して LLM の応答を送信します。
レスポンスの取得
すべての LLM 応答を取得します (オプションでプロンプトでフィルタリング可能)。
ライセンス
マサチューセッツ工科大学
EC2へのデプロイ
このプロジェクトには、EC2 またはその他のサーバー環境への簡単なデプロイを可能にする Docker 構成が含まれています。
前提条件
- Amazon Linux 2 または Ubuntu を実行する EC2 インスタンス
- ポート 62886 で受信トラフィックを許可するように構成されたセキュリティ グループ
- インスタンスへのSSHアクセス
展開手順
- リポジトリを EC2 インスタンスにクローンします。Copy
- デプロイメント スクリプトを実行可能にします。Copy
- デプロイメント スクリプトを実行します。Copy
スクリプトは次のようになります。
- DockerとDocker Composeがまだインストールされていない場合はインストールします。
- Dockerイメージをビルドする
- コンテナをデタッチモードで起動する
- MCP サーバーにアクセスできる公開 URL を表示します
手動展開
手動でデプロイする場合:
- Docker イメージをビルドします。Copy
- コンテナを起動します。Copy
- コンテナが実行中であることを確認します。Copy
サーバーへのアクセス
展開されると、MCP サーバーは次の場所からアクセスできるようになります。
http://<ec2-public-ip>:62886/sse
- SSEエンドポイントhttp://<ec2-public-ip>:62886/messages
- メッセージエンドポイント
EC2 セキュリティ グループでポート 62886 が開いていることを確認してください。
This server cannot be installed
複数の AI エージェントが同じプロンプトに対する互いの応答を共有して読み取ることができるため、他の LLM が同じ質問に対して言ったことを反映できるようになります。