Skip to main content
Glama

Servidor MCP Consult7

Consult7 es un servidor del Protocolo de Contexto de Modelos (MCP) que permite a los agentes de IA consultar modelos con ventanas de contexto grandes a través de OpenRouter para analizar colecciones extensas de archivos: bases de código completas, repositorios de documentos o contenido mixto que exceda los límites de contexto del agente actual.

¿Por qué Consult7?

Consult7 permite que cualquier agente compatible con MCP delegue el análisis de archivos a modelos de contexto grande (hasta 2M de tokens). Es útil cuando:

  • El contexto actual del agente está lleno

  • La tarea requiere capacidades de modelos especializados

  • Necesitas analizar grandes bases de código en una sola consulta

  • Quieres comparar resultados de diferentes modelos

"Para los usuarios de Claude Code, Consult7 cambia las reglas del juego."

Cómo funciona

Consult7 recopila archivos de las rutas específicas que proporciones (con comodines opcionales en los nombres de archivo), los ensambla en un único contexto y los envía a un modelo de ventana de contexto grande junto con tu consulta. El resultado se devuelve directamente al agente con el que estás trabajando.

Casos de uso de ejemplo

Resumen rápido de base de código

  • Archivos: ["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]

  • Consulta: "Resume la arquitectura y los componentes principales de este proyecto en Python"

  • Modelo: "google/gemini-3-flash-preview"

  • Modo: "fast"

Análisis profundo con razonamiento

  • Archivos: ["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]

  • Consulta: "Analiza el flujo de autenticación en esta base de código. Piensa paso a paso sobre las vulnerabilidades de seguridad y sugiere mejoras"

  • Modelo: "anthropic/claude-opus-4.7"

  • Modo: "think"

Generar un informe guardado en un archivo

  • Archivos: ["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]

  • Consulta: "Genera un informe completo de revisión de código con análisis de arquitectura, evaluación de calidad de código y recomendaciones de mejora"

  • Modelo: "google/gemini-2.5-pro"

  • Modo: "think"

  • Archivo de salida: "/Users/john/reports/code_review.md"

  • Resultado: Devuelve "Result has been saved to /Users/john/reports/code_review.md" en lugar de saturar el contexto del agente

Destacado: Modelos Gemini 3.1

Consult7 es compatible con la familia Gemini 3.1 de Google:

  • Gemini 3.1 Pro (google/gemini-3.1-pro-preview) - Modelo de razonamiento insignia, 1M de contexto

  • Gemini 3 Flash (google/gemini-3-flash-preview) - Modelo ultrarrápido, 1M de contexto

  • Gemini 3.1 Flash Lite (google/gemini-3.1-flash-lite-preview) - Modelo ligero ultrarrápido, 1M de contexto

Mnemotécnicos rápidos para usuarios avanzados:

  • gemt = Gemini 3.1 Pro + think (razonamiento insignia)

  • gemf = Gemini 3 Flash + fast (ultrarrápido)

  • gptt = GPT-5.5 + think (último GPT)

  • grot = Grok 4.20 + think (razonamiento automático)

  • oput = Claude Opus 4.7 + think (pensamiento adaptativo)

  • ULTRA = Ejecutar GEMT, GPTT, GROT y OPUT en paralelo (4 modelos de frontera)

Estos mnemotécnicos facilitan la referencia a combinaciones de modelo+modo en tus consultas.

Instalación

Claude Code

Simplemente ejecuta:

claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-key

Claude Desktop

Añádelo a tu archivo de configuración de Claude Desktop:

{
  "mcpServers": {
    "consult7": {
      "type": "stdio",
      "command": "uvx",
      "args": ["consult7", "your-openrouter-api-key"]
    }
  }
}

Reemplaza your-openrouter-api-key con tu clave API real de OpenRouter.

No requiere instalación: uvx descarga y ejecuta automáticamente consult7 en un entorno aislado.

Opciones de línea de comandos

uvx consult7 <api-key> [--test]
  • <api-key>: Obligatorio. Tu clave API de OpenRouter

  • --test: Opcional. Probar la conexión API

El modelo y el modo se especifican al llamar a la herramienta, no al inicio.

Modelos compatibles

Consult7 es compatible con todos los más de 500 modelos disponibles en OpenRouter. A continuación se muestran los modelos insignia con límites de tamaño de archivo dinámicos optimizados:

Modelo

Contexto

Caso de uso

openai/gpt-5.5

1M

Último GPT, rendimiento equilibrado

google/gemini-3.1-pro-preview

1M

Modelo de razonamiento insignia

google/gemini-3-flash-preview

1M

Gemini 3 Flash, ultrarrápido

google/gemini-3.1-flash-lite-preview

1M

Modelo ligero ultrarrápido

anthropic/claude-opus-4.7

1M

Mejor calidad, pensamiento adaptativo

anthropic/claude-sonnet-4.6

1M

Razonamiento excelente, rápido

anthropic/claude-haiku-4.5

200k

Económico, muy rápido

x-ai/grok-4.20

2M

Razonamiento automático, contexto enorme

x-ai/grok-4.1-fast

2M

Ventana de contexto más grande

Mnemotécnicos rápidos:

  • gptt = openai/gpt-5.5 + think (último GPT, razonamiento profundo)

  • gemt = google/gemini-3.1-pro-preview + think (Gemini 3.1 Pro, razonamiento insignia)

  • grot = x-ai/grok-4.20 + think (Grok 4.20, razonamiento automático)

  • oput = anthropic/claude-opus-4.7 + think (Claude Opus, pensamiento adaptativo)

  • opuf = anthropic/claude-opus-4.7 + fast (Claude Opus, sin razonamiento)

  • gemf = google/gemini-3-flash-preview + fast (Gemini 3 Flash, ultrarrápido)

  • ULTRA = llamar a GEMT, GPTT, GROT y OPUT EN PARALELO (4 modelos de frontera para máxima información)

Puedes usar cualquier ID de modelo de OpenRouter (p. ej., deepseek/deepseek-r1-0528). Consulta la lista completa de modelos. Los límites de tamaño de archivo se calculan automáticamente según la ventana de contexto de cada modelo.

Modos de rendimiento

  • fast: Sin razonamiento: respuestas rápidas, tareas simples

  • mid: Razonamiento moderado: revisiones de código, análisis de errores

  • think: Razonamiento máximo: auditorías de seguridad, refactorización compleja

Reglas de especificación de archivos

  • Solo rutas absolutas: /Users/john/project/src/*.py

  • Comodines solo en nombres de archivo: /Users/john/project/*.py (no en rutas de directorio)

  • Extensión requerida con comodines: *.py no *

  • Mezclar archivos y patrones: ["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]

Patrones comunes:

  • Todos los archivos Python: /path/to/dir/*.py

  • Archivos de prueba: /path/to/tests/*_test.py o /path/to/tests/test_*.py

  • Múltiples extensiones: ["/path/*.js", "/path/*.ts"]

Ignorados automáticamente: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules

Límites de tamaño: Dinámicos según la ventana de contexto del modelo (p. ej., Grok 4.20: ~8MB, GPT-5.5: ~4MB)

Parámetros de la herramienta

La herramienta de consulta acepta los siguientes parámetros:

  • files (obligatorio): Lista de rutas de archivo absolutas o patrones con comodines solo en los nombres de archivo

  • query (obligatorio): Tu pregunta o instrucción para que el LLM procese los archivos

  • model (obligatorio): El modelo LLM a utilizar (ver Modelos compatibles arriba)

  • mode (obligatorio): Modo de rendimiento: fast, mid o think

  • output_file (opcional): Ruta absoluta para guardar la respuesta en un archivo en lugar de devolverla

    • Si el archivo existe, se guardará con el sufijo _updated (p. ej., report.mdreport_updated.md)

    • Cuando se especifica, solo devuelve: "Result has been saved to /path/to/file"

    • Útil para generar informes, documentación o análisis sin saturar el contexto del agente

  • zdr (opcional): Habilitar el enrutamiento de Retención de Datos Cero (predeterminado: false)

    • Cuando es true, enruta solo a puntos finales con política ZDR (los prompts no son retenidos por el proveedor)

    • ZDR disponible: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5

    • No disponible: GPT-5.5, Grok 4.20 (devuelve error)

Ejemplos de uso

Vía MCP en Claude Code

Claude Code utilizará automáticamente la herramienta con los parámetros adecuados:

{
  "files": ["/Users/john/project/src/*.py"],
  "query": "Explain the main architecture",
  "model": "google/gemini-3-flash-preview",
  "mode": "fast"
}

Vía API de Python

from consult7.consultation import consultation_impl

result = await consultation_impl(
    files=["/path/to/file.py"],
    query="Explain this code",
    model="google/gemini-3-flash-preview",
    mode="fast",  # fast, mid, or think
    provider="openrouter",
    api_key="sk-or-v1-..."
)

Pruebas

# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --test

Desinstalación

Para eliminar consult7 de Claude Code:

claude mcp remove consult7 -s user

Historial de versiones

v3.6.0

  • Modelos actualizados: GPT-5.5, Claude Opus 4.7, Grok 4.20

  • Claude Opus 4.7 (1M de contexto) utiliza pensamiento adaptativo: reasoning.enabled=true

  • Grok 4.20 (2M de contexto) utiliza razonamiento automático: reasoning.enabled=true

  • Mnemotécnicos actualizados: gptt → GPT-5.5, oput/opuf → Claude Opus 4.7, grot → Grok 4.20

  • IDs de modelos heredados aún compatibles

v3.5.0

  • Actualizado GPT-5.2 → GPT-5.4 (~1M de contexto)

v3.4.0

  • Modelos actualizados: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast

  • Nuevos modelos añadidos: Claude Haiku 4.5, Gemini 3.1 Flash Lite

  • Mnemotécnicos actualizados: gemt → Gemini 3.1 Pro, oput/opuf → Claude Opus 4.6

  • IDs de modelos heredados aún compatibles

v3.3.0

  • Corregido problema de truncamiento en modo de pensamiento de GPT-5.2 (cambiado a streaming)

  • Añadido google/gemini-3-flash-preview (Gemini 3 Flash, ultrarrápido)

  • Mnemotécnico gemf actualizado para usar Gemini 3 Flash

  • Añadido parámetro zdr para enrutamiento de Retención de Datos Cero

v3.2.0

  • Actualizado a GPT-5.2 con razonamiento basado en esfuerzo

v3.1.0

  • Añadido google/gemini-3-pro-preview (1M de contexto, modelo de razonamiento insignia)

  • Nuevos mnemotécnicos: gemt (Gemini 3 Pro), grot (Grok 4), ULTRA (ejecución en paralelo)

v3.0.0

  • Eliminados proveedores directos de Google y OpenAI: ahora solo OpenRouter

  • Eliminado sufijo |thinking: usa el parámetro mode en su lugar (ahora obligatorio)

  • API de parámetro mode limpia: fast, mid, think

  • CLI simplificada de consult7 <provider> <key> a consult7 <key>

  • Mejor integración MCP con validación de enumeración para modos

  • Límites de tamaño de archivo dinámicos basados en la ventana de contexto del modelo

v2.1.0

  • Añadido parámetro output_file para guardar respuestas en archivos

v2.0.0

  • Nueva interfaz de lista de archivos con validación simplificada

  • Límites de tamaño de archivo reducidos a valores realistas

Licencia

MIT

A
license - permissive license
-
quality - not tested
C
maintenance

Maintenance

Maintainers
Response time
Release cycle
1Releases (12mo)
Issues opened vs closed

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'

If you have feedback or need assistance with the MCP directory API, please join our Discord server