MCP: Multi-Agent Control Point

by Gomezzz299
Integrations
  • Enables containerized deployment of the MCP server with Docker and Docker Compose, allowing for easier setup and distribution across machines

  • Powers the backend API server that handles routing user questions to appropriate specialized agents

  • Integrates with Ollama to access the deepseek-r1:7b language model for expert responses when specialized agents cannot handle a query

🧠 MCP: Multi-Agent Control Point

Este proyecto implementa un servidor multi-agente que enruta preguntas del usuario a un modelo LLM o a agentes especializados (como fecha, ubicación, clima o un experto técnico). Incluye una interfaz web sencilla construida con Streamlit para facilitar su uso.


🚀 Características

  • 🌐 Backend con FastAPI
  • 🧠 Agentes especializados (fecha, ubicación, clima, experto LLM)
  • 🖥️ Interfaz visual con Streamlit (GUI)
  • 🐳 Contenedores Docker para fácil despliegue
  • 🔌 Comunicación cliente-servidor lista para red local o remoto

📁 Estructura del proyecto

MCP/ ├── core/ │ ├── registry.py # Registra todos los agentes │ └── router_llm.py # Permite distribución entre agentes ├── agents/ │ └── agent.py # cada agente incluido en el servidor ├── server/ │ ├── mcp_server.py # Lógica del MCP │ └── api.py # Backend FastAPI ├── gui/ │ ├── app.py # Interfaz Streamlit │ └── .streamlit/ │ └── secrets.toml # Configuración del backend ├── utils/ │ └── json_parser.py # Función para dividir json ├── requirements.txt # Dependencias comunes ├── Dockerfile.backend # Imagen del backend ├── Dockerfile.frontend # Imagen del frontend └── docker-compose.yml # Orquestación de servicios

⚙️ Requisitos


🧪 Instalación rápida

1. Clona el repositorio

git clone https://github.com/tu-usuario/MCP.git cd MCP

2. Crea archivo de configuración para Streamlit

Dentro del directorio gui, crea el archivo:

gui/.streamlit/secrets.toml

Con el siguiente contenido:

server_url = "http://backend:8000/process"

3. Ejecuta con Docker Compose

docker-compose up --build

Esto construirá y levantará dos contenedores:

  • Backend en http://localhost:8000
  • Interfaz gráfica en http://localhost:8501

🌍 Acceso desde otra máquina (opcional)

  1. Asegúrate de exponer correctamente los puertos (8000, 8501).
  2. Usa la IP de la máquina servidor en lugar de localhost en secrets.toml.
  3. También puedes configurar redes Docker personalizadas para acceso cruzado entre hosts.

📦 Para producción

Puedes ejecutar solo el backend si deseas integrarlo con otra interfaz:

docker build -f Dockerfile.backend -t mcp_backend . docker run -p 8000:8000 mcp_backend

✨ Ejemplo de uso

En la interfaz web, puedes escribir preguntas como:

  • ¿Qué día es hoy?
  • ¿Dónde estoy?
  • ¿Qué clima hace?
  • Explícame qué es Python

La aplicación decidirá si responder directamente o delegar la pregunta a un agente.


🛠️ Agentes disponibles

AgenteFunción
FECHADevuelve la fecha y hora actuales
UBICACIONDetecta la ciudad y país mediante IP
CLIMADevuelve el clima en la ubicación actual
LLM_EXPERTOConsulta al modelo deepseek-r1:7b via ollama

📄 Licencia

Este proyecto está licenciado bajo MIT License.


🙋‍♂️ Autor

Desarrollado por [Tu Nombre o Alias].

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

A server that routes user questions to specialized agents (date, location, weather) or an LLM expert, with a simple Streamlit web interface for easy interaction.

  1. 🚀 Características
    1. 📁 Estructura del proyecto
      1. ⚙️ Requisitos
        1. 🧪 Instalación rápida
          1. Clona el repositorio
          2. Crea archivo de configuración para Streamlit
          3. Ejecuta con Docker Compose
        2. 🌍 Acceso desde otra máquina (opcional)
          1. 📦 Para producción
            1. ✨ Ejemplo de uso
              1. 🛠️ Agentes disponibles
                1. 📄 Licencia
                  1. 🙋‍♂️ Autor

                    Related MCP Servers

                    • A
                      security
                      F
                      license
                      A
                      quality
                      A server that enables browser automation using Playwright, allowing interaction with web pages, capturing screenshots, and executing JavaScript in a browser environment through LLMs.
                      Last updated -
                      12
                      18,115
                      1
                      TypeScript
                    • A
                      security
                      A
                      license
                      A
                      quality
                      A server that leverages Cloudflare Browser Rendering to extract and process web content for use as context in LLMs, offering tools for fetching pages, searching documentation, extracting structured content, and summarizing content.
                      Last updated -
                      4
                      3
                      TypeScript
                      MIT License
                      • Apple
                    • A
                      security
                      A
                      license
                      A
                      quality
                      A server that exposes PagerDuty API functionality to LLMs with structured inputs and outputs, enabling management of incidents, services, teams, and users.
                      Last updated -
                      14
                      Python
                      MIT License
                      • Apple
                    • -
                      security
                      F
                      license
                      -
                      quality
                      A server that manages conversation context for LLM interactions, storing recent prompts and providing relevant context for each user via REST API endpoints.
                      Last updated -
                      1,137
                      TypeScript

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/Gomezzz299/MCP'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server