Skip to main content
Glama

🧠 Expert MCP

Оснастите свою модель ИИ «экспертным консультантом», к которому можно обратиться в любой момент.

Когда используемая модель сталкивается со сложной задачей, она может перенаправить вопрос заранее настроенной продвинутой модели (например, GPT-5.5, Claude Opus 4.7 и т. д.) с помощью этого MCP-инструмента, получить глубокий анализ и профессиональные рекомендации, а затем, объединив их со своим собственным суждением, выдать окончательный ответ.

Python MCP License GitHub


✨ Функциональные особенности

  • 🔌 Совместимость с OpenAI — подключение к любым вышестоящим эндпоинтам в формате OpenAI (OpenAI / DeepSeek / Qwen / vLLM / Ollama и др.)

  • ⚙️ Конфигурация через файл — все параметры централизованно управляются в config.json, без необходимости изменения кода

  • 📡 Streamable HTTP — потоковая передача по HTTP в соответствии с новейшими стандартами MCP, эндпоинт /mcp

  • 🛠️ Богатые подсказки для инструментов — тщательно проработанное description, направляющее модель на вызов в нужный момент

  • 🧩 Трехкомпонентные входные параметрыquestion (обязательно), context (контекст), focus (фокус внимания)

  • 📊 Полное логирование — логи запросов + статистика использования токенов для мониторинга и отладки


🏗️ Принцип работы

┌─────────────────────────────────────────────────────────┐
│                      用户 (User)                         │
└───────────────────────────┬─────────────────────────────┘
                            │ 提问
                            ▼
┌─────────────────────────────────────────────────────────┐
│              下游模型 (Claude / GPT / Qwen …)            │
│                                                         │
│   遇到复杂问题?→ 调用 consult_advanced_model 工具       │
└───────────────────────────┬─────────────────────────────┘
                            │ MCP Streamable HTTP
                            ▼
┌─────────────────────────────────────────────────────────┐
│                   Expert MCP Server                     │
│               (本项目 server.py)                        │
└───────────────────────────┬─────────────────────────────┘
                            │ OpenAI API 请求
                            ▼
┌─────────────────────────────────────────────────────────┐
│         上游高级模型 (GPT-5.5、Claude Opus 4.7 …)      │
│                   返回深度分析意见                       │
└─────────────────────────────────────────────────────────┘

📦 Быстрый старт

1. Клонирование репозитория

git clone https://github.com/MineJPGcraft/Expert-mcp.git
cd Expert-mcp

2. Установка зависимостей

pip install -r requirements.txt

Рекомендуется использовать Python 3.10+, желательно устанавливать в виртуальном окружении.

3. Редактирование конфигурационного файла

Скопируйте и измените config.json:

{
  "host": "0.0.0.0",
  "port": 8765,
  "upstream": {
    "base_url": "https://api.openai.com/v1",
    "api_key": "sk-xxxxxxxxxxxxxxxxxxxx",
    "model": "gpt-5.5",
    "temperature": 0.3,
    "max_tokens": 4096,
    "timeout": 120,
    "system_prompt": "你是一位顶尖的资深专家顾问,请对问题进行深入、严谨、可执行的分析。"
  }
}

Описание параметров см. ниже в разделе ⚙️ Справочник конфигурации.

4. Запуск службы

python server.py

Появление следующих логов означает успешный запуск:

2025-xx-xx | INFO    | mcp-advisor | 上游模型: gpt-4o @ https://api.openai.com/v1
2025-xx-xx | INFO    | mcp-advisor | MCP 监听: http://0.0.0.0:8765/mcp

Адрес MCP-эндпоинта:

http://127.0.0.1:8765/mcp

🔧 Подключение клиента

В клиентах, поддерживающих MCP Streamable HTTP (Cherry Studio, Cline, Claude Code и др.), добавьте следующую конфигурацию:

{
  "mcpServers": {
    "expert-advisor": {
      "type": "streamableHttp",
      "url": "http://127.0.0.1:8765/mcp"
    }
  }
}

Удаленное развертывание? Замените 127.0.0.1 на реальный IP-адрес или доменное имя сервера и убедитесь, что порт открыт в брандмауэре.


⚙️ Справочник конфигурации

Поле

Тип

Значение по умолчанию

Описание

host

string

"0.0.0.0"

Адрес прослушивания службы

port

integer

8765

Порт прослушивания службы

upstream.base_url

string

Базовый URL вышестоящего API (совместимый с OpenAI)

upstream.api_key

string

API-ключ вышестоящего сервиса

upstream.model

string

Название модели, например gpt-5.5, claude-opus-4-7

upstream.temperature

float

0.3

Температура генерации, для аналитических задач рекомендуется низкое значение

upstream.max_tokens

integer

4096

Максимальное количество токенов в одном ответе

upstream.timeout

float

120

Тайм-аут запроса в секундах

upstream.system_prompt

string

Встроенное значение

Системный промпт для продвинутой модели, можно полностью настроить

Переключение конфигурационного файла через переменные окружения

MCP_CONFIG=config.prod.json python server.py

🛠️ Описание инструментов

Инструменты, доступные для вызова моделью:

consult_advanced_model

Параметр

Тип

Обязательно

Описание

question

string

Основной вопрос для консультации, максимально полный и ясный

context

string

Контекстная информация, например фрагменты кода, требования пользователя, предложенные решения и т. д.

focus

string

Направление, в котором желательно получить ответ от продвинутой модели

Рекомендуемые сценарии использования:

  • Уверенность в ответе < 80%

  • Пользователь явно запрашивает глубокое мышление / строгий анализ / оптимальное решение

  • Задачи с множеством ограничений, требующие сложного взвешивания факторов

  • Математика, алгоритмы, системный дизайн, сложные баги, требующие пошаговых рассуждений

  • Ситуации, когда нужно перепроверить собственные выводы

Не рекомендуется использовать:

  • Простые приветствия или обычные информационные запросы

  • Базовые вопросы с очевидными ответами

  • Часто повторяющиеся простые задачи


🌐 Подключение к вышестоящим сервисам

Просто измените раздел upstream в config.json для подключения к разным провайдерам.

📋 Зависимости

mcp>=1.2.0
openai>=1.40.0

📄 Лицензия

MIT License © 2026 MCJPG

A
license - permissive license
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/MineJPGcraft/Expert-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server