Integrations
Supports configuration through environment variables for API keys and provider settings.
Enables access to Google AI models like Gemini, with configurable parameters and integration with the overall model orchestration system.
Available as an npm package for easy installation and integration into existing projects.
Servidor MCP de MindBridge ⚡ El enrutador de IA para grandes movimientos cerebrales
MindBridge es su centro de comando de IA: un servidor de Protocolo de Contexto de Modelo (MCP) creado para unificar, organizar y potenciar sus flujos de trabajo de LLM.
Olvídate de la dependencia de un proveedor. Olvídate de tener que lidiar con una docena de API.
MindBridge conecta sus aplicaciones a cualquier modelo, desde OpenAI y Anthropic hasta Ollama y DeepSeek, y les permite comunicarse entre sí como un equipo de consultores expertos.
¿Necesitas velocidad pura? Consigue un modelo económico.
¿Necesitas un razonamiento complejo? Dirígelo a un especialista.
¿Quieres una segunda opinión? MindBridge la tiene integrada.
Esto no es solo agregación de modelos. Es orquestación de modelos.
Características principales 🔥
Qué hace | ¿Por qué deberías usarlo? |
---|---|
Soporte para múltiples LLM | Cambie instantáneamente entre OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama (modelos locales) y API compatibles con OpenAI. |
Motor de razonamiento consciente | Enrutamiento inteligente a modelos creados para razonamiento profundo como Claude, GPT-4o, DeepSeek Reasoner, etc. |
Herramienta getSecondOpinion | Haga la misma pregunta a varios modelos para comparar las respuestas. |
Capa API compatible con OpenAI | Instale MindBridge en cualquier herramienta que espere puntos finales OpenAI (Azure, Together.ai, Groq, etc.). |
Detecta automáticamente a los proveedores | Solo agrega tus claves. MindBridge gestiona la configuración y el descubrimiento automáticamente. |
Flexible como el infierno | Configure todo a través de variables de entorno, configuración MCP o JSON: usted decide. |
¿Por qué MindBridge?
Cada LLM es bueno en algo. MindBridge los ayuda a trabajar juntos.
Perfecto para:
- Constructores de agentes
- Flujos de trabajo multimodelo
- Motores de orquestación de IA
- Tareas que requieren mucho razonamiento
- Construyendo entornos de desarrollo de IA más inteligentes
- Backends impulsados por LLM
- ¿Alguien está cansado de los jardines amurallados de los vendedores?
Instalación 🛠️
Opción 1: Instalar desde npm (recomendado)
Opción 2: Instalar desde la fuente
- Clonar el repositorio:Copy
- Instalar dependencias:Copy
- Configurar variables de entorno:EditeCopy
.env
y agregue sus claves API para los proveedores que desee utilizar.
Configuración ⚙️
Variables de entorno
El servidor admite las siguientes variables de entorno:
OPENAI_API_KEY
: Su clave API de OpenAIANTHROPIC_API_KEY
: Su clave de API antrópicaDEEPSEEK_API_KEY
: Su clave API de DeepSeekGOOGLE_API_KEY
: Su clave de API de Google AIOPENROUTER_API_KEY
: Su clave API de OpenRouterOLLAMA_BASE_URL
: URL de la instancia de Ollama (predeterminado: http://localhost:11434 )OPENAI_COMPATIBLE_API_KEY
: (Opcional) Clave API para servicios compatibles con OpenAIOPENAI_COMPATIBLE_API_BASE_URL
: URL base para servicios compatibles con OpenAIOPENAI_COMPATIBLE_API_MODELS
: Lista separada por comas de modelos disponibles
Configuración de MCP
Para usar con IDE compatibles con MCP como Cursor o Windsurf, puede usar la siguiente configuración en su archivo mcp.json
:
Reemplace las claves API con sus claves reales. Para la configuración compatible con OpenAI, puede eliminar el campo api_key
si el servicio no requiere autenticación.
Uso 💫
Iniciando el servidor
Modo de desarrollo con recarga automática:
Modo de producción:
Cuando se instala globalmente:
Herramientas disponibles
- obtenerSegundaOpiniónCopy
- lista de proveedores
- Enumera todos los proveedores configurados y sus modelos disponibles
- No se requieren parámetros
- listaReasoningModels
- Enumera modelos optimizados para tareas de razonamiento
- No se requieren parámetros
Ejemplo de uso 📝
Desarrollo 🔧
npm run lint
: Ejecutar ESLintnpm run format
: Formatear código con Prettiernpm run clean
: Limpiar artefactos de compilaciónnpm run build
: Construye el proyecto
Contribuyendo
¡Bienvenidos los PR! Ayúdennos a hacer que los flujos de trabajo de IA sean menos tontos.
Licencia
MIT: haz lo que quieras, pero no seas malvado.
Hecho con ❤️ por Pink Pixel
You must be authenticated.
Un enrutador de IA que conecta aplicaciones a múltiples proveedores de LLM (OpenAI, Anthropic, Google, DeepSeek, Ollama, etc.) con capacidades de orquestación de modelos inteligentes, lo que permite el cambio dinámico entre modelos para diferentes tareas de razonamiento.
- Core Features 🔥
- Why MindBridge?
- Installation 🛠️
- Configuration ⚙️
- Usage 💫
- Example Usage 📝
- Development 🔧
- Contributing
- License