MCP: Multi-Agent Control Point

by Gomezzz299
Integrations
  • Enables containerized deployment of the MCP server with Docker and Docker Compose, allowing for easier setup and distribution across machines

  • Powers the backend API server that handles routing user questions to appropriate specialized agents

  • Integrates with Ollama to access the deepseek-r1:7b language model for expert responses when specialized agents cannot handle a query

🧠 MCP:多代理控制点

该项目实现了一个多代理服务器,将用户问题路由到 LLM 模型或专门的代理(例如日期、位置、天气或技术专家)。包括使用 Streamlit 构建的简单 Web 界面,以方便使用。


🚀 功能

  • 🌐 使用 FastAPI 的后端
  • 🧠 专业代理(日期、地点、天气、法学硕士专家)
  • 🖥️ Streamlit 的可视化界面(GUI)
  • 🐳 Docker 容器,易于部署
  • 🔌 客户端-服务器通信可用于本地或远程网络

📁 项目结构

MCP/ ├── core/ │ ├── registry.py # Registra todos los agentes │ └── router_llm.py # Permite distribución entre agentes ├── agents/ │ └── agent.py # cada agente incluido en el servidor ├── server/ │ ├── mcp_server.py # Lógica del MCP │ └── api.py # Backend FastAPI ├── gui/ │ ├── app.py # Interfaz Streamlit │ └── .streamlit/ │ └── secrets.toml # Configuración del backend ├── utils/ │ └── json_parser.py # Función para dividir json ├── requirements.txt # Dependencias comunes ├── Dockerfile.backend # Imagen del backend ├── Dockerfile.frontend # Imagen del frontend └── docker-compose.yml # Orquestación de servicios

⚙️ 要求


🧪 快速安装

1. 克隆存储库

git clone https://github.com/tu-usuario/MCP.git cd MCP

2.创建Streamlit的配置文件

gui目录中,创建文件:

gui/.streamlit/secrets.toml

内容如下:

server_url = "http://backend:8000/process"

3. 使用 Docker Compose 运行

docker-compose up --build

这将建造并吊起两个集装箱:

  • 后端位于http://localhost:8000
  • 图形界面http://localhost:8501

🌍 从另一台机器访问(可选)

  1. 确保正确公开端口( 80008501 )。
  2. secrets.toml中使用服务器机器的 IP 而不是localhost
  3. 您还可以设置自定义 Docker 网络以实现跨主机访问。

📦用于生产

如果您想将其与另一个界面集成,则可以只运行后端:

docker build -f Dockerfile.backend -t mcp_backend . docker run -p 8000:8000 mcp_backend

✨ 使用示例

在 Web 界面中,您可以输入如下问题:

  • ¿Qué día es hoy?
  • ¿Dónde estoy?
  • ¿Qué clima hace?
  • Explícame qué es Python

该应用程序将决定是否直接回答问题或将其委托给代理。


🛠️ 代理可用

代理人功能
日期返回当前日期和时间
地点通过 IP 检测城市和国家
气候返回当前位置的天气
法学硕士专家通过ollama查询deepseek-r1:7b模型

📄 许可证

该项目已获得 MIT 许可。


🙋‍♂️ 作者

[您的姓名或别名] 提供支持。

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

将用户问题路由给专门代理(日期、地点、天气)或 LLM 专家的服务器,并配有简单的 Streamlit 网络界面以便于交互。

  1. 🚀 功能
    1. 📁 项目结构
      1. ⚙️ 要求
        1. 🧪 快速安装
          1. 克隆存储库
          2. 2.创建Streamlit的配置文件
          3. 使用 Docker Compose 运行
        2. 🌍 从另一台机器访问(可选)
          1. 📦用于生产
            1. ✨ 使用示例
              1. 🛠️ 代理可用
                1. 📄 许可证
                  1. 🙋‍♂️ 作者

                    Related MCP Servers

                    • A
                      security
                      F
                      license
                      A
                      quality
                      A server that enables browser automation using Playwright, allowing interaction with web pages, capturing screenshots, and executing JavaScript in a browser environment through LLMs.
                      Last updated -
                      12
                      18,115
                      1
                      TypeScript
                    • A
                      security
                      A
                      license
                      A
                      quality
                      A server that leverages Cloudflare Browser Rendering to extract and process web content for use as context in LLMs, offering tools for fetching pages, searching documentation, extracting structured content, and summarizing content.
                      Last updated -
                      4
                      3
                      TypeScript
                      MIT License
                      • Apple
                    • A
                      security
                      A
                      license
                      A
                      quality
                      A server that exposes PagerDuty API functionality to LLMs with structured inputs and outputs, enabling management of incidents, services, teams, and users.
                      Last updated -
                      14
                      Python
                      MIT License
                      • Apple
                    • -
                      security
                      F
                      license
                      -
                      quality
                      A server that manages conversation context for LLM interactions, storing recent prompts and providing relevant context for each user via REST API endpoints.
                      Last updated -
                      1,137
                      TypeScript

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/Gomezzz299/MCP'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server