Servidor MCP de MindBridge ⚡ El enrutador de IA para grandes movimientos cerebrales
MindBridge es su centro de comando de IA: un servidor de Protocolo de Contexto de Modelo (MCP) creado para unificar, organizar y potenciar sus flujos de trabajo de LLM.
Olvídate de la dependencia de un proveedor. Olvídate de tener que lidiar con una docena de API.
MindBridge conecta sus aplicaciones a cualquier modelo, desde OpenAI y Anthropic hasta Ollama y DeepSeek, y les permite comunicarse entre sí como un equipo de consultores expertos.
¿Necesitas velocidad pura? Consigue un modelo económico.
¿Necesitas un razonamiento complejo? Dirígelo a un especialista.
¿Quieres una segunda opinión? MindBridge la tiene integrada.
Esto no es solo agregación de modelos. Es orquestación de modelos.
Características principales 🔥
Qué hace | ¿Por qué deberías usarlo? |
---|---|
Soporte para múltiples LLM | Cambie instantáneamente entre OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama (modelos locales) y API compatibles con OpenAI. |
Motor de razonamiento consciente | Enrutamiento inteligente a modelos creados para razonamiento profundo como Claude, GPT-4o, DeepSeek Reasoner, etc. |
Herramienta getSecondOpinion | Haga la misma pregunta a varios modelos para comparar las respuestas. |
Capa API compatible con OpenAI | Instale MindBridge en cualquier herramienta que espere puntos finales OpenAI (Azure, Together.ai, Groq, etc.). |
Detecta automáticamente a los proveedores | Solo agrega tus claves. MindBridge gestiona la configuración y el descubrimiento automáticamente. |
Flexible como el infierno | Configure todo a través de variables de entorno, configuración MCP o JSON: usted decide. |
¿Por qué MindBridge?
Cada LLM es bueno en algo. MindBridge los ayuda a trabajar juntos.
Perfecto para:
- Constructores de agentes
- Flujos de trabajo multimodelo
- Motores de orquestación de IA
- Tareas que requieren mucho razonamiento
- Construyendo entornos de desarrollo de IA más inteligentes
- Backends impulsados por LLM
- ¿Alguien está cansado de los jardines amurallados de los vendedores?
Instalación 🛠️
Opción 1: Instalar desde npm (recomendado)
Opción 2: Instalar desde la fuente
- Clonar el repositorio:
- Instalar dependencias:
- Configurar variables de entorno:Edite
.env
y agregue sus claves API para los proveedores que desee utilizar.
Configuración ⚙️
Variables de entorno
El servidor admite las siguientes variables de entorno:
OPENAI_API_KEY
: Su clave API de OpenAIANTHROPIC_API_KEY
: Su clave de API antrópicaDEEPSEEK_API_KEY
: Su clave API de DeepSeekGOOGLE_API_KEY
: Su clave de API de Google AIOPENROUTER_API_KEY
: Su clave API de OpenRouterOLLAMA_BASE_URL
: URL de la instancia de Ollama (predeterminado: http://localhost:11434 )OPENAI_COMPATIBLE_API_KEY
: (Opcional) Clave API para servicios compatibles con OpenAIOPENAI_COMPATIBLE_API_BASE_URL
: URL base para servicios compatibles con OpenAIOPENAI_COMPATIBLE_API_MODELS
: Lista separada por comas de modelos disponibles
Configuración de MCP
Para usar con IDE compatibles con MCP como Cursor o Windsurf, puede usar la siguiente configuración en su archivo mcp.json
:
Reemplace las claves API con sus claves reales. Para la configuración compatible con OpenAI, puede eliminar el campo api_key
si el servicio no requiere autenticación.
Uso 💫
Iniciando el servidor
Modo de desarrollo con recarga automática:
Modo de producción:
Cuando se instala globalmente:
Herramientas disponibles
- obtenerSegundaOpinión
- lista de proveedores
- Enumera todos los proveedores configurados y sus modelos disponibles
- No se requieren parámetros
- listaReasoningModels
- Enumera modelos optimizados para tareas de razonamiento
- No se requieren parámetros
Ejemplo de uso 📝
Desarrollo 🔧
npm run lint
: Ejecutar ESLintnpm run format
: Formatear código con Prettiernpm run clean
: Limpiar artefactos de compilaciónnpm run build
: Construye el proyecto
Contribuyendo
¡Bienvenidos los PR! Ayúdennos a hacer que los flujos de trabajo de IA sean menos tontos.
Licencia
MIT: haz lo que quieras, pero no seas malvado.
Hecho con ❤️ por Pink Pixel
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Un enrutador de IA que conecta aplicaciones a múltiples proveedores de LLM (OpenAI, Anthropic, Google, DeepSeek, Ollama, etc.) con capacidades de orquestación de modelos inteligentes, lo que permite el cambio dinámico entre modelos para diferentes tareas de razonamiento.
- Características principales 🔥
- ¿Por qué MindBridge?
- Instalación 🛠️
- Configuración ⚙️
- Uso 💫
- Ejemplo de uso 📝
- Desarrollo 🔧
- Contribuyendo
- Licencia
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityProvides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.Last updated -48546TypeScriptApache 2.0
- -securityAlicense-qualityEnables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.Last updated -3PythonMIT License
- AsecurityFlicenseAqualityA lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.Last updated -6411Python
- -securityFlicense-qualityA unified Model Context Protocol Gateway that bridges LLM interfaces with various tools and services, providing OpenAI API compatibility and supporting both synchronous and asynchronous tool execution.Last updated -Python