Integrations
Used for running the server, building the TypeScript code, and managing dependencies with commands like 'bun install', 'bun run build', and 'bun run dev'.
Provides containerization for deployment to EC2 or other server environments using Docker Compose.
Integrates with the MCP Inspector tool from GitHub (modelcontextprotocol/inspector) for testing and debugging the MCP server.
LLM 响应 MCP 服务器
模型上下文协议 (MCP) 服务器可实现多个 AI 代理之间的协作辩论,使它们能够就用户提示进行讨论并达成共识。
概述
该项目实现了一个 MCP 服务器,可促进 LLM 之间的多轮对话,主要功能如下:
- 基于会议的合作——法学硕士可以注册成为辩论会的参与者
- 协商一致——法学硕士可以进行深入讨论以达成一致
- 实时响应共享——所有参与者都可以查看并回应彼此的贡献
该服务器提供四个主要工具调用:
register-participant
:允许 LLM 以其初始响应加入协作会话submit-response
:允许法学硕士在辩论期间提交后续回复get-responses
:允许 LLM 检索会话中其他 LLM 的所有响应get-session-status
:允许 LLM 检查注册等待期是否已完成
这使得多个人工智能代理(如“监察委员会”)可以就用户的问题进行深入讨论,相互辩论直至达成共识。
安装
发展
使用 MCP Inspector 进行测试
该项目包括对MCP Inspector 的支持,它是用于测试和调试 MCP 服务器的工具。
inspect
脚本使用npx
运行 MCP 检查器,它将在您的浏览器中启动一个 Web 界面以与您的 MCP 服务器进行交互。
这将允许您:
- 探索可用的工具和资源
- 使用不同参数的测试工具调用
- 查看服务器的响应
- 调试您的 MCP 服务器实现
用法
服务器公开两个端点:
/sse
- MCP 客户端连接的服务器发送事件端点/messages
- MCP 客户端发送消息的 HTTP 端点
MCP 工具
注册参与者
注册成为协作会议的参与者:
在最后一位参与者加入后,服务器会等待 3 秒的注册时间,然后才会做出响应。该响应包含所有参与者的初始响应,使每个 LLM 能够在注册时间结束后立即回应其他参与者的意见。
提交回复
在辩论期间提交后续回应:
获取响应
检索辩论环节的所有回复:
回应包括所有参与者按时间顺序做出的贡献。
获取会话状态
检查注册等待期是否已过:
协作辩论流程
- LLM 学生将根据对提示的初步反应注册为参与者
- 服务器在最后一次注册后等待 3 秒才发送响应
- 注册期结束后,所有参与者都会收到所有参与者的初步回复汇总
- 参与者随后可以提交后续回复,回应彼此的观点
- 辩论持续进行,直到参与者达成共识或达到最大轮数
执照
麻省理工学院
部署到 EC2
该项目包括 Docker 配置,可轻松部署到 EC2 或任何其他服务器环境。
先决条件
- 运行 Amazon Linux 2 或 Ubuntu 的 EC2 实例
- 配置安全组以允许端口 62887 上的入站流量
- 通过 SSH 访问实例
部署步骤
- 将存储库克隆到您的 EC2 实例:Copy
- 使部署脚本可执行:Copy
- 运行部署脚本:Copy
该脚本将:
- 如果尚未安装 Docker 和 Docker Compose,请安装它们
- 构建 Docker 镜像
- 以分离模式启动容器
- 显示可访问 MCP 服务器的公共 URL
手动部署
如果您希望手动部署:
- 构建 Docker 镜像:Copy
- 启动容器:Copy
- 验证容器正在运行:Copy
访问服务器
部署完成后,您的 MCP 服务器将可以通过以下方式访问:
http://<ec2-public-ip>:62887/sse
- SSE 端点http://<ec2-public-ip>:62887/messages
- 消息端点
确保端口 62887 在您的 EC2 安全组中已打开!
This server cannot be installed
模型上下文协议服务器,支持多个 AI 代理之间的协作辩论,允许它们就用户提示进行讨论并达成共识。