Skip to main content
Glama

Servidor MCP de MindBridge ⚡ El enrutador de IA para grandes movimientos cerebrales

MindBridge es su centro de comando de IA: un servidor de Protocolo de Contexto de Modelo (MCP) creado para unificar, organizar y potenciar sus flujos de trabajo de LLM.

Olvídate de la dependencia de un proveedor. Olvídate de tener que lidiar con una docena de API.
MindBridge conecta sus aplicaciones a cualquier modelo, desde OpenAI y Anthropic hasta Ollama y DeepSeek, y les permite comunicarse entre sí como un equipo de consultores expertos.

¿Necesitas velocidad pura? Consigue un modelo económico.
¿Necesitas un razonamiento complejo? Dirígelo a un especialista.
¿Quieres una segunda opinión? MindBridge la tiene integrada.

Esto no es solo agregación de modelos. Es orquestación de modelos.


Características principales 🔥

Qué hace

¿Por qué deberías usarlo?

Soporte para múltiples LLM

Cambie instantáneamente entre OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama (modelos locales) y API compatibles con OpenAI.

Motor de razonamiento consciente

Enrutamiento inteligente a modelos creados para razonamiento profundo como Claude, GPT-4o, DeepSeek Reasoner, etc.

Herramienta getSecondOpinion

Haga la misma pregunta a varios modelos para comparar las respuestas.

Capa API compatible con OpenAI

Instale MindBridge en cualquier herramienta que espere puntos finales OpenAI (Azure, Together.ai, Groq, etc.).

Detecta automáticamente a los proveedores

Solo agrega tus claves. MindBridge gestiona la configuración y el descubrimiento automáticamente.

Flexible como el infierno

Configure todo a través de variables de entorno, configuración MCP o JSON: usted decide.


¿Por qué MindBridge?

Cada LLM es bueno en algo. MindBridge los ayuda a trabajar juntos.

Perfecto para:

  • Constructores de agentes

  • Flujos de trabajo multimodelo

  • Motores de orquestación de IA

  • Tareas que requieren mucho razonamiento

  • Construyendo entornos de desarrollo de IA más inteligentes

  • Backends impulsados por LLM

  • ¿Alguien está cansado de los jardines amurallados de los vendedores?


Instalación 🛠️

Opción 1: Instalar desde npm (recomendado)

# Install globally npm install -g @pinkpixel/mindbridge # use with npx npx @pinkpixel/mindbridge

Opción 2: Instalar desde la fuente

  1. Clonar el repositorio:

    git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. Instalar dependencias:

    chmod +x install.sh ./install.sh
  3. Configurar variables de entorno:

    cp .env.example .env

    Edite .env y agregue sus claves API para los proveedores que desee utilizar.

Configuración ⚙️

Variables de entorno

El servidor admite las siguientes variables de entorno:

  • OPENAI_API_KEY : Su clave API de OpenAI

  • ANTHROPIC_API_KEY : Su clave de API antrópica

  • DEEPSEEK_API_KEY : Su clave API de DeepSeek

  • GOOGLE_API_KEY : Su clave de API de Google AI

  • OPENROUTER_API_KEY : Su clave API de OpenRouter

  • OLLAMA_BASE_URL : URL de la instancia de Ollama (predeterminado: http://localhost:11434 )

  • OPENAI_COMPATIBLE_API_KEY : (Opcional) Clave API para servicios compatibles con OpenAI

  • OPENAI_COMPATIBLE_API_BASE_URL : URL base para servicios compatibles con OpenAI

  • OPENAI_COMPATIBLE_API_MODELS : Lista separada por comas de modelos disponibles

Configuración de MCP

Para usar con IDE compatibles con MCP como Cursor o Windsurf, puede usar la siguiente configuración en su archivo mcp.json :

{ "mcpServers": { "mindbridge": { "command": "npx", "args": [ "-y", "@pinkpixel/mindbridge" ], "env": { "OPENAI_API_KEY": "OPENAI_API_KEY_HERE", "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE", "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE", "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE", "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE" }, "provider_config": { "openai": { "default_model": "gpt-4o" }, "anthropic": { "default_model": "claude-3-5-sonnet-20241022" }, "google": { "default_model": "gemini-2.0-flash" }, "deepseek": { "default_model": "deepseek-chat" }, "openrouter": { "default_model": "openai/gpt-4o" }, "ollama": { "base_url": "http://localhost:11434", "default_model": "llama3" }, "openai_compatible": { "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED", "base_url": "FULL_API_URL_HERE", "available_models": ["MODEL1", "MODEL2"], "default_model": "MODEL1" } }, "default_params": { "temperature": 0.7, "reasoning_effort": "medium" }, "alwaysAllow": [ "getSecondOpinion", "listProviders", "listReasoningModels" ] } } }

Reemplace las claves API con sus claves reales. Para la configuración compatible con OpenAI, puede eliminar el campo api_key si el servicio no requiere autenticación.

Uso 💫

Iniciando el servidor

Modo de desarrollo con recarga automática:

npm run dev

Modo de producción:

npm run build npm start

Cuando se instala globalmente:

mindbridge

Herramientas disponibles

  1. obtenerSegundaOpinión

    { provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }
  2. lista de proveedores

    • Enumera todos los proveedores configurados y sus modelos disponibles

    • No se requieren parámetros

  3. listaReasoningModels

    • Enumera modelos optimizados para tareas de razonamiento

    • No se requieren parámetros

Ejemplo de uso 📝

// Get an opinion from GPT-4o { "provider": "openai", "model": "gpt-4o", "prompt": "What are the key considerations for database sharding?", "temperature": 0.7, "maxTokens": 1000 } // Get a reasoned response from OpenAI's o1 model { "provider": "openai", "model": "o1", "prompt": "Explain the mathematical principles behind database indexing", "reasoning_effort": "high", "maxTokens": 4000 } // Get a reasoned response from DeepSeek { "provider": "deepseek", "model": "deepseek-reasoner", "prompt": "What are the tradeoffs between microservices and monoliths?", "reasoning_effort": "high", "maxTokens": 2000 } // Use an OpenAI-compatible provider { "provider": "openaiCompatible", "model": "YOUR_MODEL_NAME", "prompt": "Explain the concept of eventual consistency in distributed systems", "temperature": 0.5, "maxTokens": 1500 }

Desarrollo 🔧

  • npm run lint : Ejecutar ESLint

  • npm run format : Formatear código con Prettier

  • npm run clean : Limpiar artefactos de compilación

  • npm run build : Construye el proyecto

Contribuyendo

¡Bienvenidos los PR! Ayúdennos a hacer que los flujos de trabajo de IA sean menos tontos.


Licencia

MIT: haz lo que quieras, pero no seas malvado.


Hecho con ❤️ por Pink Pixel

Related MCP Servers

  • A
    security
    -
    license
    A
    quality
    Provides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.
    Last updated -
    58
    58
    Apache 2.0
  • A
    security
    A
    license
    A
    quality
    Enables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.
    Last updated -
    1
    6
    MIT License
    • Linux
    • Apple
  • -
    security
    F
    license
    -
    quality
    A unified Model Context Protocol Gateway that bridges LLM interfaces with various tools and services, providing OpenAI API compatibility and supporting both synchronous and asynchronous tool execution.
    Last updated -
    1
  • -
    security
    A
    license
    -
    quality
    A middleware system that connects large language models (LLMs) with various tool services through an OpenAI-compatible API, enabling enhanced AI assistant capabilities with features like file operations, web browsing, and database management.
    Last updated -
    3
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/pinkpixel-dev/mindbridge-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server