Servidor MCP de agentes de OpenRouter
Una implementación de servidor de Protocolo de Contexto de Modelo (MCP) para OpenRouter que ofrece sofisticadas capacidades de agente de investigación. Este servidor permite que su LLM conversacional delegue la investigación a un orquestador de investigación de Claude que utiliza diferentes agentes especializados basados en diversos modelos de OpenRouter.
🚀 Nueva rama beta (29/03/2025)
Descripción técnica del servidor MCP de OpenRouter Agents
El servidor MCP de OpenRouter Agents implementa un sofisticado sistema de orquestación para la investigación basada en IA. Este resumen destaca los componentes técnicos y las capacidades clave de la última versión beta (29/03/2025).
Arquitectura central
Protocolo de contexto de modelo (MCP) : implementación completa con transportes STDIO y HTTP/SSE
Orquestación multiagente : sistema jerárquico con roles de agente de planificación, investigación y contexto
Base de datos de incrustación de vectores : PGLite con pgvector para el almacenamiento de conocimiento semántico
Equilibrio de carga round-robin : distribuye las tareas de investigación entre diferentes modelos para obtener resultados óptimos
Sistema de respaldo adaptativo : degradación del modelo de alto a bajo costo cuando falla la investigación primaria
Capacidades de investigación
Planificación en varias etapas : Claude 3.7 Sonnet descompone consultas complejas en subpreguntas especializadas
Ejecución paralela : investigación simultánea en varios LLM para obtener resultados integrales
Refinamiento consciente del contexto : planificación de segunda etapa que identifica y llena los vacíos en la investigación inicial
Base de conocimiento semántico : la búsqueda vectorial encuentra investigaciones pasadas relevantes para mejorar nuevas consultas
Síntesis adaptativa : el agente contextual integra los hallazgos con niveles y formatos de audiencia personalizables
Mejoras recientes
Resiliencia entre modelos : el manejo integral de errores permite que la investigación siga fluyendo a pesar de las fallas de los modelos individuales
Almacenamiento en caché dinámico : optimización inteligente de TTL y caché según la complejidad de la consulta
Resiliencia de base de datos : lógica de reintento con retroceso exponencial para operaciones de base de datos
Programación defensiva : operaciones seguras contra valores nulos en todo el código base
Comentarios de usuario mejorados : sistema de calificación con recuperación de errores detallada
Pruebas integrales : funcionalidad verificada en las cinco herramientas MCP
La versión beta mejora la fiabilidad y la calidad de la investigación mediante mejoras arquitectónicas, manteniendo la simplicidad de la implementación original. El sistema se integra a la perfección con Cline en VS Code y la aplicación de escritorio Claude, ofreciendo capacidades de investigación de nivel empresarial en un paquete completo.
Estas mejoras ofrecen una experiencia de investigación más fiable y potente, a la vez que mantienen la facilidad de uso del servidor. Para probar la versión beta:
🌟Apoya este proyecto
Si este proyecto te resulta útil, ¡considera darle una estrella en GitHub! Tu apoyo nos ayuda a mejorarlo.
¡Sus comentarios y contribuciones son siempre bienvenidos!
Prerrequisitos
Node.js (se recomienda v18 o posterior) y npm
Git
Una clave API de OpenRouter (obtenga una en https://openrouter.ai/ )
Características
Planificación de la investigación con Claude 3.7 Soneto (modo de pensamiento)
Múltiples agentes de investigación impulsados por varios LLM de OpenRouter
Asignación rotatoria de modelos a tareas de investigación
Opciones de costo configurables (alto/bajo) para diferentes necesidades de investigación
Autónomo sin dependencias de bases de datos externas
Almacenamiento en caché en memoria para tiempos de respuesta rápidos
PGLite con extensión vectorial para almacenamiento persistente y búsqueda de similitud
Cómo funciona
Cuando envía una consulta de investigación, el agente de planificación (Claude 3.7 Sonnet) la divide en múltiples preguntas de investigación especializadas.
Cada pregunta de investigación se asigna a un agente de investigación diferente utilizando LLM de alto o bajo costo.
Los resultados de todos los agentes se sintetizan en un informe de investigación completo.
Los resultados se almacenan en caché en la memoria y se almacenan de forma persistente con capacidades de búsqueda vectorial integradas.
Se le devuelve el informe final contextualizado.
Instalación (Node.js / Estándar)
Este es el método recomendado para la integración con clientes MCP como Cline en VS Code.
Clonar este repositorio:
git clone https://github.com/wheattoast11/openrouter-deep-research-mcp.git cd openrouter-agentsInstalar dependencias:
npm installCrea tu archivo
.env
a partir del ejemplo:cp .env.example .env(En Windows, puedes usar
Edite el archivo
.env
y agregue su clave API de OpenRouter:OPENROUTER_API_KEY=your_api_key_here(Asegúrese de que este archivo esté guardado en el directorio raíz del proyecto)
Integración MCP de Cline/VS Code (recomendada)
Para utilizar este servidor con Cline en VS Code, debe agregarlo a su archivo de configuración de MCP.
Localice su archivo de configuración Cline MCP:
Normalmente se encuentra en:
c:\Users\YOUR_USERNAME\AppData\Roaming\Cursor\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
(Windows) o~/Library/Application Support/Cursor/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
(macOS). ReemplaceYOUR_USERNAME
según corresponda.
Edite el archivo Agregue el siguiente objeto de configuración dentro del objeto principal
mcpServers
. Asegúrese de reemplazar{ "mcpServers": { // ... potentially other existing servers ... "openrouter-research-agents": { "command": "cmd.exe", "args": [ "/c", "YOUR_PROJECT_PATH_HERE/start-mcp-server.bat" ], "env": { // IMPORTANT: Replace with your actual OpenRouter API Key "OPENROUTER_API_KEY": "YOUR_OPENROUTER_API_KEY_HERE" }, "disabled": false, // Ensure the server is enabled "autoApprove": [ "conduct_research", "research_follow_up", "get_past_research", "rate_research_report", "list_research_history" ] } // ... potentially other existing servers ... } }¿Por qué usar el archivo por lotes? Usarlo garantiza que el servidor se inicie con el entorno y el contexto de directorio adecuados.
¿Por qué la clave API en Aunque el servidor usa
dotenv
para cargar el archivo.env
, proporcionar la clave en el bloqueenv
garantiza que el proceso del servidor siempre tenga acceso a él.
Guarde el archivo de configuración. Cline debería detectar automáticamente la nueva configuración del servidor. Si no aparece inmediatamente, es posible que deba reiniciar VS Code o la extensión Cline.
Una vez configurado, verás la conduct_research
y otras herramientas de investigación disponibles en Cline. Puedes usarlas así:
O especifique una preferencia de costo:
Modelos disponibles
Modelos de alto costo
perplejidad/sonar-investigación-profunda
perplejidad/sonar-pro
perplejidad/sonar-razonamiento-pro
openai/gpt-4o-search-preview
Modelos de bajo costo
perplejidad/razonamiento sonar
openai/gpt-4o-mini-vista previa-de-búsqueda
google/gemini-2.0-flash-001
Personalización
Puede personalizar los modelos disponibles editando el archivo .env
:
También puede personalizar la configuración de la base de datos y del caché en el archivo .env
:
Instalación alternativa: HTTP/SSE para la aplicación de escritorio Claude
El servidor también se puede ejecutar como un servicio HTTP/SSE independiente para la integración con la aplicación de escritorio Claude.
Pasos de instalación de HTTP/SSE
Clonar este repositorio (si aún no lo ha hecho):
git clone https://github.com/wheattoast11/openrouter-deep-research-mcp.git cd openrouter-agentsCree y configure su archivo
.env
como se describe en la instalación estándar (Pasos 3 y 4).Inicie el servidor usando npm:
npm startEl servidor MCP se ejecutará y será accesible a través de HTTP/SSE en
http://localhost:3002
(o el puerto especificado en su.env
).
Integración de la aplicación de escritorio Claude (HTTP/SSE)
Abra la aplicación de escritorio de Claude.
Vaya a Configuración > Desarrollador.
Haga clic en "Editar configuración".
Agregue lo siguiente a la matriz
mcpServers
en la configuración:{ "type": "sse", "name": "OpenRouter Research Agents (HTTP)", // Differentiate if also using STDIO "host": "localhost", "port": 3002, // Or your configured port "streamPath": "/sse", "messagePath": "/messages" }Guarde y reinicie Claude.
Persistencia y almacenamiento de datos
Este servidor utiliza:
Caché en memoria : para un almacenamiento en caché de respuesta eficiente (usando node-cache)
PGLite con pgvector : para el almacenamiento persistente de informes de investigación y capacidades de búsqueda de vectores
Los informes de investigación se almacenan con incrustaciones vectoriales para la búsqueda de similitud semántica.
La búsqueda vectorial se utiliza para encontrar investigaciones pasadas relevantes para nuevas consultas.
Todos los datos se almacenan localmente en el directorio de datos especificado (predeterminado: './researchAgentDB')
Solución de problemas
Problemas de conexión : asegúrese de que la configuración de desarrollador de Claude coincida con la configuración del servidor
Errores de clave API : Verifique que su clave API de OpenRouter sea correcta
No se encontraron agentes : si la planificación falla, asegúrese de que Claude esté analizando el XML correctamente
Errores de modelo : Verifique si los modelos especificados están disponibles en su cuenta de OpenRouter
Configuración avanzada
La configuración del servidor se puede modificar en config.js
. Puedes ajustar lo siguiente:
Modelos disponibles
Preferencias de costos predeterminadas
Configuración del agente de planificación
Puerto y configuración del servidor
Configuración de base de datos y caché
Seguridad de autenticación
A partir de la última actualización, la autenticación de clave API ahora es obligatoria de forma predeterminada para el transporte HTTP/SSE:
Establezca la variable de entorno
SERVER_API_KEY
en su archivo.env
para producción:SERVER_API_KEY=your_secure_api_key_hereSolo para desarrollo/pruebas, puede deshabilitar la autenticación configurando:
ALLOW_NO_API_KEY=true
Esto proporciona mayor seguridad para las implementaciones de producción y al mismo tiempo mantiene la flexibilidad para el desarrollo y las pruebas.
Herramientas de prueba
El repositorio incluye varias herramientas de prueba para verificar la implementación:
Pruebas básicas de herramientas :
test-all-tools.batEste script prueba las cinco herramientas MCP de forma aislada para verificar que funcionan correctamente.
Prueba del servidor MCP :
test-mcp-server.jsPrueba la implementación del servidor MCP, incluidas todas las opciones de transporte.
Pruebas de agentes de investigación :
test-research-agent.jsPrueba la funcionalidad principal del agente de investigación con llamadas API de OpenRouter reales.
Estas herramientas ayudan a garantizar que todos los componentes funcionen correctamente después de cualquier modificación.
Licencia
Instituto Tecnológico de Massachusetts (MIT)
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Un servidor de protocolo de contexto de modelo que permite a los LLM conversacionales delegar tareas de investigación complejas a agentes de IA especializados impulsados por varios modelos de OpenRouter, coordinados por un orquestador Claude.
- 🚀 Nueva rama beta (29/03/2025)
- 🌟Apoya este proyecto
- Prerrequisitos
- Características
- Cómo funciona
- Instalación (Node.js / Estándar)
- Integración MCP de Cline/VS Code (recomendada)
- Modelos disponibles
- Personalización
- Instalación alternativa: HTTP/SSE para la aplicación de escritorio Claude
- Persistencia y almacenamiento de datos
- Solución de problemas
- Configuración avanzada
- Herramientas de prueba
- Licencia
Related MCP Servers
- -securityFlicense-qualityA Model Context Protocol server that enables Claude users to access specialized OpenAI agents (web search, file search, computer actions) and a multi-agent orchestrator through the MCP protocol.Last updated -49
- -securityAlicense-qualityA Model Context Protocol server that enables intelligent task delegation from advanced AI agents like Claude 3.7 to cost-effective LLMs, providing a comprehensive suite of tools spanning cognitive memory, browser automation, Excel manipulation, database interactions, and document processing.Last updated -108MIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that scans and exposes AI-related dotfiles and configuration files to LLM agents, helping them understand project context and guidelines.Last updated -MIT License
- -securityAlicense-qualityA sophisticated server that coordinates multiple LLMs (Claude, Gemini, etc.) using the Model Context Protocol to enhance reasoning capabilities through strategies like progressive deep dive and consensus-based approaches.
Appeared in Searches
- OpenRouter thinking or reasoning capabilities
- Developing a Framework for Creating Autonomous Agent Solutions for Startup Studios
- An exploration of the term 'multimodal' and its applications
- An MCP tool for AI to ask questions to other AIs
- Using OpenRouter API to integrate calls to other LLMs on Claude desktop