Skip to main content
Glama

🧠 Expert MCP

Equipa a tu modelo de IA con un asesor experto de alto nivel "siempre disponible para consultas".

Cuando el modelo de flujo descendente se encuentra con problemas complejos, puede reenviar la pregunta a un modelo avanzado preconfigurado (como GPT-5.5, Claude Opus 4.7, etc.) a través de esta herramienta MCP, obtener un análisis profundo y recomendaciones profesionales, y luego combinarlo con su propio juicio para proporcionar la respuesta final.

Python MCP License GitHub


✨ Características

  • 🔌 Compatible con OpenAI — Se conecta a cualquier punto final de flujo ascendente con formato OpenAI (OpenAI / DeepSeek / Qwen / vLLM / Ollama, etc.)

  • ⚙️ Basado en archivos de configuración — Todos los parámetros se gestionan de forma centralizada en config.json, sin necesidad de modificar el código

  • 📡 Streamable HTTP — Transmisión HTTP compatible con los últimos estándares MCP, punto final /mcp

  • 🛠️ Sugerencias de herramientas enriquecidasdescription cuidadosamente diseñada para guiar al modelo de flujo descendente a realizar llamadas en el momento adecuado

  • 🧩 Parámetros de entrada de tres partesquestion (obligatorio), context (antecedentes), focus (enfoque principal)

  • 📊 Registro completo — Registro de solicitudes + estadísticas de uso de tokens, fácil de monitorear y solucionar problemas


🏗️ Principio de funcionamiento

┌─────────────────────────────────────────────────────────┐
│                      用户 (User)                         │
└───────────────────────────┬─────────────────────────────┘
                            │ 提问
                            ▼
┌─────────────────────────────────────────────────────────┐
│              下游模型 (Claude / GPT / Qwen …)            │
│                                                         │
│   遇到复杂问题?→ 调用 consult_advanced_model 工具       │
└───────────────────────────┬─────────────────────────────┘
                            │ MCP Streamable HTTP
                            ▼
┌─────────────────────────────────────────────────────────┐
│                   Expert MCP Server                     │
│               (本项目 server.py)                        │
└───────────────────────────┬─────────────────────────────┘
                            │ OpenAI API 请求
                            ▼
┌─────────────────────────────────────────────────────────┐
│         上游高级模型 (GPT-5.5、Claude Opus 4.7 …)      │
│                   返回深度分析意见                       │
└─────────────────────────────────────────────────────────┘

📦 Inicio rápido

1. Clonar el repositorio

git clone https://github.com/MineJPGcraft/Expert-mcp.git
cd Expert-mcp

2. Instalar dependencias

pip install -r requirements.txt

Se recomienda usar Python 3.10+ y realizar la instalación en un entorno virtual.

3. Editar el archivo de configuración

Copia y modifica config.json:

{
  "host": "0.0.0.0",
  "port": 8765,
  "upstream": {
    "base_url": "https://api.openai.com/v1",
    "api_key": "sk-xxxxxxxxxxxxxxxxxxxx",
    "model": "gpt-5.5",
    "temperature": 0.3,
    "max_tokens": 4096,
    "timeout": 120,
    "system_prompt": "你是一位顶尖的资深专家顾问,请对问题进行深入、严谨、可执行的分析。"
  }
}

Consulta la ⚙️ Referencia de configuración a continuación para obtener una explicación de los elementos de configuración.

4. Iniciar el servicio

python server.py

Verás el siguiente registro si el inicio fue exitoso:

2025-xx-xx | INFO    | mcp-advisor | 上游模型: gpt-4o @ https://api.openai.com/v1
2025-xx-xx | INFO    | mcp-advisor | MCP 监听: http://0.0.0.0:8765/mcp

Dirección del punto final MCP:

http://127.0.0.1:8765/mcp

🔧 Conexión del cliente

Agrega la siguiente configuración en clientes que admitan MCP Streamable HTTP (Cherry Studio, Cline, Claude Code, etc.):

{
  "mcpServers": {
    "expert-advisor": {
      "type": "streamableHttp",
      "url": "http://127.0.0.1:8765/mcp"
    }
  }
}

¿Despliegue remoto? Reemplaza 127.0.0.1 con la IP real o el nombre de dominio del servidor y asegúrate de que el firewall permita el puerto correspondiente.


⚙️ Referencia de configuración

Campo

Tipo

Valor predeterminado

Descripción

host

string

"0.0.0.0"

Dirección de escucha del servicio

port

integer

8765

Puerto de escucha del servicio

upstream.base_url

string

URL base de la API de flujo ascendente (formato compatible con OpenAI)

upstream.api_key

string

Clave de API de flujo ascendente

upstream.model

string

Nombre del modelo de flujo ascendente, como gpt-5.5, claude-opus-4-7

upstream.temperature

float

0.3

Temperatura de generación, se recomienda mantener un valor bajo para tareas de análisis

upstream.max_tokens

integer

4096

Número máximo de tokens por respuesta

upstream.timeout

float

120

Tiempo de espera de la solicitud en segundos

upstream.system_prompt

string

Valor predeterminado integrado

Prompt del sistema para el modelo avanzado, totalmente personalizable

Cambiar el archivo de configuración mediante variables de entorno

MCP_CONFIG=config.prod.json python server.py

🛠️ Descripción de herramientas

Herramientas que el modelo de flujo descendente puede llamar:

consult_advanced_model

Parámetro

Tipo

Obligatorio

Descripción

question

string

La pregunta central a consultar, lo más completa y clara posible

context

string

Información de contexto, como fragmentos de código, requisitos del usuario, soluciones intentadas, etc.

focus

string

La dirección en la que se desea que el modelo avanzado se centre

Escenarios recomendados para llamar:

  • Problemas donde la confianza propia es < 80%

  • El usuario solicita explícitamente pensamiento profundo / análisis riguroso / mejores soluciones

  • Problemas con múltiples restricciones que requieren compensaciones complejas

  • Matemáticas, algoritmos, diseño de sistemas, errores difíciles que requieren razonamiento paso a paso

  • Situaciones donde se necesita una verificación secundaria de las propias conclusiones

Escenarios no recomendados:

  • Saludos simples o consultas de información pura

  • Preguntas básicas con respuestas obvias

  • Tareas simples repetitivas de alta frecuencia


🌐 Conexión a servicios de flujo ascendente

Simplemente modifica la sección upstream en config.json para conectarte a diferentes proveedores de servicios

📋 Dependencias

mcp>=1.2.0
openai>=1.40.0

📄 Licencia

MIT License © 2026 MCJPG

A
license - permissive license
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/MineJPGcraft/Expert-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server