LLM 响应 MCP 服务器
模型上下文协议 (MCP) 服务器允许多个 AI 代理共享和读取彼此对同一提示的响应。
概述
该项目实现了一个 MCP 服务器,其中包含两个主要工具调用:
submit-response
:允许法学硕士提交对提示的响应get-responses
:允许 LLM 检索其他 LLM 对特定提示的所有响应
这使得用户可以向多个 AI 代理提出相同的问题,然后使用这些工具,代理可以阅读并反思其他 LLM 对同一问题的回答。
安装
发展
使用 MCP Inspector 进行测试
该项目包括对MCP Inspector 的支持,它是用于测试和调试 MCP 服务器的工具。
inspect
脚本使用npx
运行 MCP 检查器,它将在您的浏览器中启动一个 Web 界面以与您的 MCP 服务器进行交互。
这将允许您:
- 探索可用的工具和资源
- 使用不同参数的测试工具调用
- 查看服务器的响应
- 调试您的 MCP 服务器实现
用法
服务器公开两个端点:
/sse
- MCP 客户端连接的服务器发送事件端点/messages
- MCP 客户端发送消息的 HTTP 端点
MCP 工具
提交回复
提交 LLM 对提示的回应:
获取响应
检索所有 LLM 响应,可选择按提示进行过滤:
执照
麻省理工学院
部署到 EC2
该项目包括 Docker 配置,可轻松部署到 EC2 或任何其他服务器环境。
先决条件
- 运行 Amazon Linux 2 或 Ubuntu 的 EC2 实例
- 配置安全组以允许端口 62886 上的入站流量
- 通过 SSH 访问实例
部署步骤
- 将存储库克隆到您的 EC2 实例:
- 使部署脚本可执行:
- 运行部署脚本:
该脚本将:
- 如果尚未安装 Docker 和 Docker Compose,请安装它们
- 构建 Docker 镜像
- 以分离模式启动容器
- 显示可访问 MCP 服务器的公共 URL
手动部署
如果您希望手动部署:
- 构建 Docker 镜像:
- 启动容器:
- 验证容器正在运行:
访问服务器
部署完成后,您的 MCP 服务器将可以通过以下方式访问:
http://<ec2-public-ip>:62886/sse
- SSE 端点http://<ec2-public-ip>:62886/messages
- 消息端点
确保端口 62886 在您的 EC2 安全组中已打开!
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
使多个 AI 代理能够共享和阅读彼此对同一提示的回答,从而使他们能够反思其他 LLM 对同一问题的回答。
Related MCP Servers
- -securityFlicense-qualityEnables AI agents to interact with Novu's notification system, facilitating operations like sending notifications, managing subscribers, and organizing topics.Last updated -1TypeScript
- -securityFlicense-qualityEnables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.Last updated -4TypeScript
- -securityAlicense-qualityServes prompt templates through a standardized protocol for transforming basic user queries into optimized prompts for AI systems.Last updated -PythonApache 2.0
- -securityAlicense-qualityEnables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.Last updated -3PythonMIT License