MindBridge MCP Server

MIT License
1
  • Linux
  • Apple

Integrations

  • Supports configuration through environment variables for API keys and provider settings.

  • Enables access to Google AI models like Gemini, with configurable parameters and integration with the overall model orchestration system.

  • Available as an npm package for easy installation and integration into existing projects.

Servidor MCP de MindBridge ⚡ El enrutador de IA para grandes movimientos cerebrales

MindBridge es su centro de comando de IA: un servidor de Protocolo de Contexto de Modelo (MCP) creado para unificar, organizar y potenciar sus flujos de trabajo de LLM.

Olvídate de la dependencia de un proveedor. Olvídate de tener que lidiar con una docena de API.
MindBridge conecta sus aplicaciones a cualquier modelo, desde OpenAI y Anthropic hasta Ollama y DeepSeek, y les permite comunicarse entre sí como un equipo de consultores expertos.

¿Necesitas velocidad pura? Consigue un modelo económico.
¿Necesitas un razonamiento complejo? Dirígelo a un especialista.
¿Quieres una segunda opinión? MindBridge la tiene integrada.

Esto no es solo agregación de modelos. Es orquestación de modelos.


Características principales 🔥

Qué hace¿Por qué deberías usarlo?
Soporte para múltiples LLMCambie instantáneamente entre OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama (modelos locales) y API compatibles con OpenAI.
Motor de razonamiento conscienteEnrutamiento inteligente a modelos creados para razonamiento profundo como Claude, GPT-4o, DeepSeek Reasoner, etc.
Herramienta getSecondOpinionHaga la misma pregunta a varios modelos para comparar las respuestas.
Capa API compatible con OpenAIInstale MindBridge en cualquier herramienta que espere puntos finales OpenAI (Azure, Together.ai, Groq, etc.).
Detecta automáticamente a los proveedoresSolo agrega tus claves. MindBridge gestiona la configuración y el descubrimiento automáticamente.
Flexible como el infiernoConfigure todo a través de variables de entorno, configuración MCP o JSON: usted decide.

¿Por qué MindBridge?

Cada LLM es bueno en algo. MindBridge los ayuda a trabajar juntos.

Perfecto para:

  • Constructores de agentes
  • Flujos de trabajo multimodelo
  • Motores de orquestación de IA
  • Tareas que requieren mucho razonamiento
  • Construyendo entornos de desarrollo de IA más inteligentes
  • Backends impulsados por LLM
  • ¿Alguien está cansado de los jardines amurallados de los vendedores?

Instalación 🛠️

Opción 1: Instalar desde npm (recomendado)

# Install globally npm install -g @pinkpixel/mindbridge # use with npx npx @pinkpixel/mindbridge

Opción 2: Instalar desde la fuente

  1. Clonar el repositorio:
    git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. Instalar dependencias:
    chmod +x install.sh ./install.sh
  3. Configurar variables de entorno:
    cp .env.example .env
    Edite .env y agregue sus claves API para los proveedores que desee utilizar.

Configuración ⚙️

Variables de entorno

El servidor admite las siguientes variables de entorno:

  • OPENAI_API_KEY : Su clave API de OpenAI
  • ANTHROPIC_API_KEY : Su clave de API antrópica
  • DEEPSEEK_API_KEY : Su clave API de DeepSeek
  • GOOGLE_API_KEY : Su clave de API de Google AI
  • OPENROUTER_API_KEY : Su clave API de OpenRouter
  • OLLAMA_BASE_URL : URL de la instancia de Ollama (predeterminado: http://localhost:11434 )
  • OPENAI_COMPATIBLE_API_KEY : (Opcional) Clave API para servicios compatibles con OpenAI
  • OPENAI_COMPATIBLE_API_BASE_URL : URL base para servicios compatibles con OpenAI
  • OPENAI_COMPATIBLE_API_MODELS : Lista separada por comas de modelos disponibles

Configuración de MCP

Para usar con IDE compatibles con MCP como Cursor o Windsurf, puede usar la siguiente configuración en su archivo mcp.json :

{ "mcpServers": { "mindbridge": { "command": "npx", "args": [ "-y", "@pinkpixel/mindbridge" ], "env": { "OPENAI_API_KEY": "OPENAI_API_KEY_HERE", "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE", "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE", "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE", "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE" }, "provider_config": { "openai": { "default_model": "gpt-4o" }, "anthropic": { "default_model": "claude-3-5-sonnet-20241022" }, "google": { "default_model": "gemini-2.0-flash" }, "deepseek": { "default_model": "deepseek-chat" }, "openrouter": { "default_model": "openai/gpt-4o" }, "ollama": { "base_url": "http://localhost:11434", "default_model": "llama3" }, "openai_compatible": { "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED", "base_url": "FULL_API_URL_HERE", "available_models": ["MODEL1", "MODEL2"], "default_model": "MODEL1" } }, "default_params": { "temperature": 0.7, "reasoning_effort": "medium" }, "alwaysAllow": [ "getSecondOpinion", "listProviders", "listReasoningModels" ] } } }

Reemplace las claves API con sus claves reales. Para la configuración compatible con OpenAI, puede eliminar el campo api_key si el servicio no requiere autenticación.

Uso 💫

Iniciando el servidor

Modo de desarrollo con recarga automática:

npm run dev

Modo de producción:

npm run build npm start

Cuando se instala globalmente:

mindbridge

Herramientas disponibles

  1. obtenerSegundaOpinión
    { provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }
  2. lista de proveedores
    • Enumera todos los proveedores configurados y sus modelos disponibles
    • No se requieren parámetros
  3. listaReasoningModels
    • Enumera modelos optimizados para tareas de razonamiento
    • No se requieren parámetros

Ejemplo de uso 📝

// Get an opinion from GPT-4o { "provider": "openai", "model": "gpt-4o", "prompt": "What are the key considerations for database sharding?", "temperature": 0.7, "maxTokens": 1000 } // Get a reasoned response from OpenAI's o1 model { "provider": "openai", "model": "o1", "prompt": "Explain the mathematical principles behind database indexing", "reasoning_effort": "high", "maxTokens": 4000 } // Get a reasoned response from DeepSeek { "provider": "deepseek", "model": "deepseek-reasoner", "prompt": "What are the tradeoffs between microservices and monoliths?", "reasoning_effort": "high", "maxTokens": 2000 } // Use an OpenAI-compatible provider { "provider": "openaiCompatible", "model": "YOUR_MODEL_NAME", "prompt": "Explain the concept of eventual consistency in distributed systems", "temperature": 0.5, "maxTokens": 1500 }

Desarrollo 🔧

  • npm run lint : Ejecutar ESLint
  • npm run format : Formatear código con Prettier
  • npm run clean : Limpiar artefactos de compilación
  • npm run build : Construye el proyecto

Contribuyendo

¡Bienvenidos los PR! Ayúdennos a hacer que los flujos de trabajo de IA sean menos tontos.


Licencia

MIT: haz lo que quieras, pero no seas malvado.


Hecho con ❤️ por Pink Pixel

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Un enrutador de IA que conecta aplicaciones a múltiples proveedores de LLM (OpenAI, Anthropic, Google, DeepSeek, Ollama, etc.) con capacidades de orquestación de modelos inteligentes, lo que permite el cambio dinámico entre modelos para diferentes tareas de razonamiento.

  1. Core Features 🔥
    1. Why MindBridge?
      1. Installation 🛠️
        1. Option 1: Install from npm (Recommended)
        2. Option 2: Install from source
      2. Configuration ⚙️
        1. Environment Variables
        2. MCP Configuration
      3. Usage 💫
        1. Starting the Server
        2. Available Tools
      4. Example Usage 📝
        1. Development 🔧
          1. Contributing
            1. License
              ID: wv06yveqx8