Consult7
Servidor MCP Consult7
Consult7 es un servidor del Protocolo de Contexto de Modelos (MCP) que permite a los agentes de IA consultar modelos con ventanas de contexto grandes a través de OpenRouter para analizar colecciones extensas de archivos: bases de código completas, repositorios de documentos o contenido mixto que exceda los límites de contexto del agente actual.
¿Por qué Consult7?
Consult7 permite que cualquier agente compatible con MCP delegue el análisis de archivos a modelos de contexto grande (hasta 2M de tokens). Es útil cuando:
El contexto actual del agente está lleno
La tarea requiere capacidades de modelos especializados
Necesitas analizar grandes bases de código en una sola consulta
Quieres comparar resultados de diferentes modelos
"Para los usuarios de Claude Code, Consult7 cambia las reglas del juego."
Cómo funciona
Consult7 recopila archivos de las rutas específicas que proporciones (con comodines opcionales en los nombres de archivo), los ensambla en un único contexto y los envía a un modelo de ventana de contexto grande junto con tu consulta. El resultado se devuelve directamente al agente con el que estás trabajando.
Casos de uso de ejemplo
Resumen rápido de base de código
Archivos:
["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]Consulta: "Resume la arquitectura y los componentes principales de este proyecto en Python"
Modelo:
"google/gemini-3-flash-preview"Modo:
"fast"
Análisis profundo con razonamiento
Archivos:
["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]Consulta: "Analiza el flujo de autenticación en esta base de código. Piensa paso a paso sobre las vulnerabilidades de seguridad y sugiere mejoras"
Modelo:
"anthropic/claude-opus-4.7"Modo:
"think"
Generar un informe guardado en un archivo
Archivos:
["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]Consulta: "Genera un informe completo de revisión de código con análisis de arquitectura, evaluación de calidad de código y recomendaciones de mejora"
Modelo:
"google/gemini-2.5-pro"Modo:
"think"Archivo de salida:
"/Users/john/reports/code_review.md"Resultado: Devuelve
"Result has been saved to /Users/john/reports/code_review.md"en lugar de saturar el contexto del agente
Destacado: Modelos Gemini 3.1
Consult7 es compatible con la familia Gemini 3.1 de Google:
Gemini 3.1 Pro (
google/gemini-3.1-pro-preview) - Modelo de razonamiento insignia, 1M de contextoGemini 3 Flash (
google/gemini-3-flash-preview) - Modelo ultrarrápido, 1M de contextoGemini 3.1 Flash Lite (
google/gemini-3.1-flash-lite-preview) - Modelo ligero ultrarrápido, 1M de contexto
Mnemotécnicos rápidos para usuarios avanzados:
gemt= Gemini 3.1 Pro + think (razonamiento insignia)gemf= Gemini 3 Flash + fast (ultrarrápido)gptt= GPT-5.5 + think (último GPT)grot= Grok 4.20 + think (razonamiento automático)oput= Claude Opus 4.7 + think (pensamiento adaptativo)ULTRA= Ejecutar GEMT, GPTT, GROT y OPUT en paralelo (4 modelos de frontera)
Estos mnemotécnicos facilitan la referencia a combinaciones de modelo+modo en tus consultas.
Instalación
Claude Code
Simplemente ejecuta:
claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-keyClaude Desktop
Añádelo a tu archivo de configuración de Claude Desktop:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "your-openrouter-api-key"]
}
}
}Reemplaza your-openrouter-api-key con tu clave API real de OpenRouter.
No requiere instalación: uvx descarga y ejecuta automáticamente consult7 en un entorno aislado.
Opciones de línea de comandos
uvx consult7 <api-key> [--test]<api-key>: Obligatorio. Tu clave API de OpenRouter--test: Opcional. Probar la conexión API
El modelo y el modo se especifican al llamar a la herramienta, no al inicio.
Modelos compatibles
Consult7 es compatible con todos los más de 500 modelos disponibles en OpenRouter. A continuación se muestran los modelos insignia con límites de tamaño de archivo dinámicos optimizados:
Modelo | Contexto | Caso de uso |
| 1M | Último GPT, rendimiento equilibrado |
| 1M | Modelo de razonamiento insignia |
| 1M | Gemini 3 Flash, ultrarrápido |
| 1M | Modelo ligero ultrarrápido |
| 1M | Mejor calidad, pensamiento adaptativo |
| 1M | Razonamiento excelente, rápido |
| 200k | Económico, muy rápido |
| 2M | Razonamiento automático, contexto enorme |
| 2M | Ventana de contexto más grande |
Mnemotécnicos rápidos:
gptt=openai/gpt-5.5+think(último GPT, razonamiento profundo)gemt=google/gemini-3.1-pro-preview+think(Gemini 3.1 Pro, razonamiento insignia)grot=x-ai/grok-4.20+think(Grok 4.20, razonamiento automático)oput=anthropic/claude-opus-4.7+think(Claude Opus, pensamiento adaptativo)opuf=anthropic/claude-opus-4.7+fast(Claude Opus, sin razonamiento)gemf=google/gemini-3-flash-preview+fast(Gemini 3 Flash, ultrarrápido)ULTRA= llamar a GEMT, GPTT, GROT y OPUT EN PARALELO (4 modelos de frontera para máxima información)
Puedes usar cualquier ID de modelo de OpenRouter (p. ej., deepseek/deepseek-r1-0528). Consulta la lista completa de modelos. Los límites de tamaño de archivo se calculan automáticamente según la ventana de contexto de cada modelo.
Modos de rendimiento
fast: Sin razonamiento: respuestas rápidas, tareas simplesmid: Razonamiento moderado: revisiones de código, análisis de erroresthink: Razonamiento máximo: auditorías de seguridad, refactorización compleja
Reglas de especificación de archivos
Solo rutas absolutas:
/Users/john/project/src/*.pyComodines solo en nombres de archivo:
/Users/john/project/*.py(no en rutas de directorio)Extensión requerida con comodines:
*.pyno*Mezclar archivos y patrones:
["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]
Patrones comunes:
Todos los archivos Python:
/path/to/dir/*.pyArchivos de prueba:
/path/to/tests/*_test.pyo/path/to/tests/test_*.pyMúltiples extensiones:
["/path/*.js", "/path/*.ts"]
Ignorados automáticamente: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules
Límites de tamaño: Dinámicos según la ventana de contexto del modelo (p. ej., Grok 4.20: ~8MB, GPT-5.5: ~4MB)
Parámetros de la herramienta
La herramienta de consulta acepta los siguientes parámetros:
files (obligatorio): Lista de rutas de archivo absolutas o patrones con comodines solo en los nombres de archivo
query (obligatorio): Tu pregunta o instrucción para que el LLM procese los archivos
model (obligatorio): El modelo LLM a utilizar (ver Modelos compatibles arriba)
mode (obligatorio): Modo de rendimiento:
fast,midothinkoutput_file (opcional): Ruta absoluta para guardar la respuesta en un archivo en lugar de devolverla
Si el archivo existe, se guardará con el sufijo
_updated(p. ej.,report.md→report_updated.md)Cuando se especifica, solo devuelve:
"Result has been saved to /path/to/file"Útil para generar informes, documentación o análisis sin saturar el contexto del agente
zdr (opcional): Habilitar el enrutamiento de Retención de Datos Cero (predeterminado:
false)Cuando es
true, enruta solo a puntos finales con política ZDR (los prompts no son retenidos por el proveedor)ZDR disponible: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5
No disponible: GPT-5.5, Grok 4.20 (devuelve error)
Ejemplos de uso
Vía MCP en Claude Code
Claude Code utilizará automáticamente la herramienta con los parámetros adecuados:
{
"files": ["/Users/john/project/src/*.py"],
"query": "Explain the main architecture",
"model": "google/gemini-3-flash-preview",
"mode": "fast"
}Vía API de Python
from consult7.consultation import consultation_impl
result = await consultation_impl(
files=["/path/to/file.py"],
query="Explain this code",
model="google/gemini-3-flash-preview",
mode="fast", # fast, mid, or think
provider="openrouter",
api_key="sk-or-v1-..."
)Pruebas
# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --testDesinstalación
Para eliminar consult7 de Claude Code:
claude mcp remove consult7 -s userHistorial de versiones
v3.6.0
Modelos actualizados: GPT-5.5, Claude Opus 4.7, Grok 4.20
Claude Opus 4.7 (1M de contexto) utiliza pensamiento adaptativo:
reasoning.enabled=trueGrok 4.20 (2M de contexto) utiliza razonamiento automático:
reasoning.enabled=trueMnemotécnicos actualizados:
gptt→ GPT-5.5,oput/opuf→ Claude Opus 4.7,grot→ Grok 4.20IDs de modelos heredados aún compatibles
v3.5.0
Actualizado GPT-5.2 → GPT-5.4 (~1M de contexto)
v3.4.0
Modelos actualizados: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast
Nuevos modelos añadidos: Claude Haiku 4.5, Gemini 3.1 Flash Lite
Mnemotécnicos actualizados:
gemt→ Gemini 3.1 Pro,oput/opuf→ Claude Opus 4.6IDs de modelos heredados aún compatibles
v3.3.0
Corregido problema de truncamiento en modo de pensamiento de GPT-5.2 (cambiado a streaming)
Añadido
google/gemini-3-flash-preview(Gemini 3 Flash, ultrarrápido)Mnemotécnico
gemfactualizado para usar Gemini 3 FlashAñadido parámetro
zdrpara enrutamiento de Retención de Datos Cero
v3.2.0
Actualizado a GPT-5.2 con razonamiento basado en esfuerzo
v3.1.0
Añadido
google/gemini-3-pro-preview(1M de contexto, modelo de razonamiento insignia)Nuevos mnemotécnicos:
gemt(Gemini 3 Pro),grot(Grok 4),ULTRA(ejecución en paralelo)
v3.0.0
Eliminados proveedores directos de Google y OpenAI: ahora solo OpenRouter
Eliminado sufijo
|thinking: usa el parámetromodeen su lugar (ahora obligatorio)API de parámetro
modelimpia:fast,mid,thinkCLI simplificada de
consult7 <provider> <key>aconsult7 <key>Mejor integración MCP con validación de enumeración para modos
Límites de tamaño de archivo dinámicos basados en la ventana de contexto del modelo
v2.1.0
Añadido parámetro
output_filepara guardar respuestas en archivos
v2.0.0
Nueva interfaz de lista de archivos con validación simplificada
Límites de tamaño de archivo reducidos a valores realistas
Licencia
MIT
This server cannot be installed
Maintenance
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'
If you have feedback or need assistance with the MCP directory API, please join our Discord server