MCP: Multi-Agent Control Point

by Gomezzz299
Integrations
  • Enables containerized deployment of the MCP server with Docker and Docker Compose, allowing for easier setup and distribution across machines

  • Powers the backend API server that handles routing user questions to appropriate specialized agents

  • Integrates with Ollama to access the deepseek-r1:7b language model for expert responses when specialized agents cannot handle a query

🧠 MCP: многоагентная точка управления

В этом проекте реализован многоагентный сервер, который направляет вопросы пользователей в модель LLM или специализированным агентам (например, дата, местоположение, погода или технический эксперт). Включает простой веб-интерфейс, созданный с помощью Streamlit для удобства использования.


🚀 Особенности

  • 🌐 Бэкэнд с FastAPI
  • 🧠 Специализированные агенты (дата, место, погода, эксперт LLM)
  • 🖥️ Визуальный интерфейс с Streamlit (GUI)
  • 🐳 Docker-контейнеры для простого развертывания
  • 🔌 Клиент-серверное взаимодействие, готовое для локальной или удаленной сети

📁 Структура проекта

MCP/ ├── core/ │ ├── registry.py # Registra todos los agentes │ └── router_llm.py # Permite distribución entre agentes ├── agents/ │ └── agent.py # cada agente incluido en el servidor ├── server/ │ ├── mcp_server.py # Lógica del MCP │ └── api.py # Backend FastAPI ├── gui/ │ ├── app.py # Interfaz Streamlit │ └── .streamlit/ │ └── secrets.toml # Configuración del backend ├── utils/ │ └── json_parser.py # Función para dividir json ├── requirements.txt # Dependencias comunes ├── Dockerfile.backend # Imagen del backend ├── Dockerfile.frontend # Imagen del frontend └── docker-compose.yml # Orquestación de servicios

⚙️ Требования


🧪 Быстрая установка

1. Клонировать репозиторий

git clone https://github.com/tu-usuario/MCP.git cd MCP

2. Создайте файл конфигурации для Streamlit

Внутри каталога gui создайте файл:

gui/.streamlit/secrets.toml

Со следующим содержанием:

server_url = "http://backend:8000/process"

3. Запуск с помощью Docker Compose

docker-compose up --build

Это позволит построить и поднять два контейнера:

  • Бэкэнд на http://localhost:8000
  • Графический интерфейс по адресу http://localhost:8501

🌍 Доступ с другого компьютера (опционально)

  1. Убедитесь, что вы правильно открыли порты ( 8000 , 8501 ).
  2. Используйте IP-адрес серверной машины вместо localhost в secrets.toml .
  3. Вы также можете настроить собственные сети Docker для кросс-хостового доступа.

📦 Для производства

Вы можете запустить только бэкэнд, если хотите интегрировать его с другим интерфейсом:

docker build -f Dockerfile.backend -t mcp_backend . docker run -p 8000:8000 mcp_backend

✨ Пример использования

В веб-интерфейсе вы можете вводить такие вопросы, как:

  • ¿Qué día es hoy?
  • ¿Dónde estoy?
  • ¿Qué clima hace?
  • Explícame qué es Python

Приложение решит, отвечать ли на вопрос напрямую или делегировать это агенту.


🛠️ Доступны агенты

АгентФункция
ДАТАВозвращает текущую дату и время
РАСПОЛОЖЕНИЕОпределяет город и страну по IP
КЛИМАТВозвращает погоду в текущем местоположении
LLM_ЭКСПЕРТЗапрос модели deepseek-r1:7b через ollama

📄 Лицензия

Данный проект лицензирован по лицензии MIT.


🙋‍♂️ Автор

При поддержке [Ваше имя или псевдоним].

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Сервер, который направляет вопросы пользователей специализированным агентам (дата, местоположение, погода) или эксперту LLM, с простым веб-интерфейсом Streamlit для легкого взаимодействия.

  1. 🚀 Особенности
    1. 📁 Структура проекта
      1. ⚙️ Требования
        1. 🧪 Быстрая установка
          1. Клонировать репозиторий
          2. Создайте файл конфигурации для Streamlit
          3. Запуск с помощью Docker Compose
        2. 🌍 Доступ с другого компьютера (опционально)
          1. 📦 Для производства
            1. ✨ Пример использования
              1. 🛠️ Доступны агенты
                1. 📄 Лицензия
                  1. 🙋‍♂️ Автор

                    Related MCP Servers

                    • A
                      security
                      F
                      license
                      A
                      quality
                      A server that enables browser automation using Playwright, allowing interaction with web pages, capturing screenshots, and executing JavaScript in a browser environment through LLMs.
                      Last updated -
                      12
                      18,115
                      1
                      TypeScript
                    • A
                      security
                      A
                      license
                      A
                      quality
                      A server that leverages Cloudflare Browser Rendering to extract and process web content for use as context in LLMs, offering tools for fetching pages, searching documentation, extracting structured content, and summarizing content.
                      Last updated -
                      4
                      3
                      TypeScript
                      MIT License
                      • Apple
                    • A
                      security
                      A
                      license
                      A
                      quality
                      A server that exposes PagerDuty API functionality to LLMs with structured inputs and outputs, enabling management of incidents, services, teams, and users.
                      Last updated -
                      14
                      Python
                      MIT License
                      • Apple
                    • -
                      security
                      F
                      license
                      -
                      quality
                      A server that manages conversation context for LLM interactions, storing recent prompts and providing relevant context for each user via REST API endpoints.
                      Last updated -
                      1,137
                      TypeScript

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/Gomezzz299/MCP'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server