Expert MCP
🧠 Expert MCP
Equipa a tu modelo de IA con un asesor experto de alto nivel "siempre disponible para consultas".
Cuando el modelo de flujo descendente se encuentra con problemas complejos, puede reenviar la pregunta a un modelo avanzado preconfigurado (como GPT-5.5, Claude Opus 4.7, etc.) a través de esta herramienta MCP, obtener un análisis profundo y recomendaciones profesionales, y luego combinarlo con su propio juicio para proporcionar la respuesta final.
✨ Características
🔌 Compatible con OpenAI — Se conecta a cualquier punto final de flujo ascendente con formato OpenAI (OpenAI / DeepSeek / Qwen / vLLM / Ollama, etc.)
⚙️ Basado en archivos de configuración — Todos los parámetros se gestionan de forma centralizada en
config.json, sin necesidad de modificar el código📡 Streamable HTTP — Transmisión HTTP compatible con los últimos estándares MCP, punto final
/mcp🛠️ Sugerencias de herramientas enriquecidas —
descriptioncuidadosamente diseñada para guiar al modelo de flujo descendente a realizar llamadas en el momento adecuado🧩 Parámetros de entrada de tres partes —
question(obligatorio),context(antecedentes),focus(enfoque principal)📊 Registro completo — Registro de solicitudes + estadísticas de uso de tokens, fácil de monitorear y solucionar problemas
🏗️ Principio de funcionamiento
┌─────────────────────────────────────────────────────────┐
│ 用户 (User) │
└───────────────────────────┬─────────────────────────────┘
│ 提问
▼
┌─────────────────────────────────────────────────────────┐
│ 下游模型 (Claude / GPT / Qwen …) │
│ │
│ 遇到复杂问题?→ 调用 consult_advanced_model 工具 │
└───────────────────────────┬─────────────────────────────┘
│ MCP Streamable HTTP
▼
┌─────────────────────────────────────────────────────────┐
│ Expert MCP Server │
│ (本项目 server.py) │
└───────────────────────────┬─────────────────────────────┘
│ OpenAI API 请求
▼
┌─────────────────────────────────────────────────────────┐
│ 上游高级模型 (GPT-5.5、Claude Opus 4.7 …) │
│ 返回深度分析意见 │
└─────────────────────────────────────────────────────────┘📦 Inicio rápido
1. Clonar el repositorio
git clone https://github.com/MineJPGcraft/Expert-mcp.git
cd Expert-mcp2. Instalar dependencias
pip install -r requirements.txtSe recomienda usar Python 3.10+ y realizar la instalación en un entorno virtual.
3. Editar el archivo de configuración
Copia y modifica config.json:
{
"host": "0.0.0.0",
"port": 8765,
"upstream": {
"base_url": "https://api.openai.com/v1",
"api_key": "sk-xxxxxxxxxxxxxxxxxxxx",
"model": "gpt-5.5",
"temperature": 0.3,
"max_tokens": 4096,
"timeout": 120,
"system_prompt": "你是一位顶尖的资深专家顾问,请对问题进行深入、严谨、可执行的分析。"
}
}Consulta la ⚙️ Referencia de configuración a continuación para obtener una explicación de los elementos de configuración.
4. Iniciar el servicio
python server.pyVerás el siguiente registro si el inicio fue exitoso:
2025-xx-xx | INFO | mcp-advisor | 上游模型: gpt-4o @ https://api.openai.com/v1
2025-xx-xx | INFO | mcp-advisor | MCP 监听: http://0.0.0.0:8765/mcpDirección del punto final MCP:
http://127.0.0.1:8765/mcp🔧 Conexión del cliente
Agrega la siguiente configuración en clientes que admitan MCP Streamable HTTP (Cherry Studio, Cline, Claude Code, etc.):
{
"mcpServers": {
"expert-advisor": {
"type": "streamableHttp",
"url": "http://127.0.0.1:8765/mcp"
}
}
}¿Despliegue remoto? Reemplaza
127.0.0.1con la IP real o el nombre de dominio del servidor y asegúrate de que el firewall permita el puerto correspondiente.
⚙️ Referencia de configuración
Campo | Tipo | Valor predeterminado | Descripción |
| string |
| Dirección de escucha del servicio |
| integer |
| Puerto de escucha del servicio |
| string | — | URL base de la API de flujo ascendente (formato compatible con OpenAI) |
| string | — | Clave de API de flujo ascendente |
| string | — | Nombre del modelo de flujo ascendente, como |
| float |
| Temperatura de generación, se recomienda mantener un valor bajo para tareas de análisis |
| integer |
| Número máximo de tokens por respuesta |
| float |
| Tiempo de espera de la solicitud en segundos |
| string | Valor predeterminado integrado | Prompt del sistema para el modelo avanzado, totalmente personalizable |
Cambiar el archivo de configuración mediante variables de entorno
MCP_CONFIG=config.prod.json python server.py🛠️ Descripción de herramientas
Herramientas que el modelo de flujo descendente puede llamar:
consult_advanced_model
Parámetro | Tipo | Obligatorio | Descripción |
| string | ✅ | La pregunta central a consultar, lo más completa y clara posible |
| string | ❌ | Información de contexto, como fragmentos de código, requisitos del usuario, soluciones intentadas, etc. |
| string | ❌ | La dirección en la que se desea que el modelo avanzado se centre |
Escenarios recomendados para llamar:
Problemas donde la confianza propia es < 80%
El usuario solicita explícitamente pensamiento profundo / análisis riguroso / mejores soluciones
Problemas con múltiples restricciones que requieren compensaciones complejas
Matemáticas, algoritmos, diseño de sistemas, errores difíciles que requieren razonamiento paso a paso
Situaciones donde se necesita una verificación secundaria de las propias conclusiones
Escenarios no recomendados:
Saludos simples o consultas de información pura
Preguntas básicas con respuestas obvias
Tareas simples repetitivas de alta frecuencia
🌐 Conexión a servicios de flujo ascendente
Simplemente modifica la sección upstream en config.json para conectarte a diferentes proveedores de servicios
📋 Dependencias
mcp>=1.2.0
openai>=1.40.0📄 Licencia
MIT License © 2026 MCJPG
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/MineJPGcraft/Expert-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server