MindBridge MCP Server

MIT License
1
  • Linux
  • Apple

Integrations

  • Supports configuration through environment variables for API keys and provider settings.

  • Enables access to Google AI models like Gemini, with configurable parameters and integration with the overall model orchestration system.

  • Available as an npm package for easy installation and integration into existing projects.

MindBridge MCP 服务器⚡ 大脑活动所需的 AI 路由器

MindBridge 是您的 AI 指挥中心——一个模型上下文协议 (MCP) 服务器,旨在统一、组织和增强您的 LLM 工作流程。

忘记供应商锁定。忘记处理十几个 API。
MindBridge 将您的应用程序连接到任何模型,从 OpenAI 和 Anthropic 到 Ollama 和 DeepSeek,并让它们像专家顾问团队一样相互交谈。

需要极致速度?那就买个便宜的型号吧。
需要复杂的推理?请联系专家。
想要听取第二意见?MindBridge 内置了此功能。

这不仅仅是模型聚合,更是模型编排。


核心功能🔥

它的作用为什么要使用它
多LLM支持立即在 OpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama(本地模型)和 OpenAI 兼容 API 之间切换。
推理引擎感知智能路由到为深度推理而构建的模型,如 Claude、GPT-4o、DeepSeek Reasoner 等。
getSecondOpinion 工具向多个模型询问相同的问题,以并排比较答案。
OpenAI兼容API层将 MindBridge 放入任何需要 OpenAI 端点的工具中(Azure、Together.ai、Groq 等)。
自动检测提供商只需添加您的密钥。MindBridge 会自动处理设置和发现。
极其灵活通过环境变量、MCP 配置或 JSON 配置一切 — — 由您决定。

为什么选择 MindBridge?

“每个法学硕士都有自己擅长的领域。MindBridge 让他们能够协同工作。”

适合:

  • 代理建造者
  • 多模型工作流程
  • AI编排引擎
  • 推理密集型任务
  • 构建更智能的AI开发环境
  • LLM 支持的后端
  • 厌倦了供应商围墙花园的人

安装🛠️

选项 1:从 npm 安装(推荐)

# Install globally npm install -g @pinkpixel/mindbridge # use with npx npx @pinkpixel/mindbridge

选项 2:从源安装

  1. 克隆存储库:
    git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. 安装依赖项:
    chmod +x install.sh ./install.sh
  3. 配置环境变量:
    cp .env.example .env
    编辑.env并为您想要使用的提供商添加 API 密钥。

配置⚙️

环境变量

服务器支持以下环境变量:

  • OPENAI_API_KEY :您的 OpenAI API 密钥
  • ANTHROPIC_API_KEY :您的 Anthropic API 密钥
  • DEEPSEEK_API_KEY :您的 DeepSeek API 密钥
  • GOOGLE_API_KEY :您的 Google AI API 密钥
  • OPENROUTER_API_KEY :您的 OpenRouter API 密钥
  • OLLAMA_BASE_URL :Ollama 实例 URL(默认值: http://localhost:11434
  • OPENAI_COMPATIBLE_API_KEY :(可选)OpenAI 兼容服务的 API 密钥
  • OPENAI_COMPATIBLE_API_BASE_URL :OpenAI 兼容服务的基本 URL
  • OPENAI_COMPATIBLE_API_MODELS :可用模型的逗号分隔列表

MCP 配置

为了与 Cursor 或 Windsurf 等 MCP 兼容 IDE 一起使用,您可以在mcp.json文件中使用以下配置:

{ "mcpServers": { "mindbridge": { "command": "npx", "args": [ "-y", "@pinkpixel/mindbridge" ], "env": { "OPENAI_API_KEY": "OPENAI_API_KEY_HERE", "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE", "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE", "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE", "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE" }, "provider_config": { "openai": { "default_model": "gpt-4o" }, "anthropic": { "default_model": "claude-3-5-sonnet-20241022" }, "google": { "default_model": "gemini-2.0-flash" }, "deepseek": { "default_model": "deepseek-chat" }, "openrouter": { "default_model": "openai/gpt-4o" }, "ollama": { "base_url": "http://localhost:11434", "default_model": "llama3" }, "openai_compatible": { "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED", "base_url": "FULL_API_URL_HERE", "available_models": ["MODEL1", "MODEL2"], "default_model": "MODEL1" } }, "default_params": { "temperature": 0.7, "reasoning_effort": "medium" }, "alwaysAllow": [ "getSecondOpinion", "listProviders", "listReasoningModels" ] } } }

将 API 密钥替换为您的实际密钥。对于与 OpenAI 兼容的配置,如果服务不需要身份验证,则可以删除api_key字段。

使用方法💫

启动服务器

具有自动重新加载的开发模式:

npm run dev

生产方式:

npm run build npm start

全局安装时:

mindbridge

可用工具

  1. 获取第二意见
    { provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }
  2. 列出提供商
    • 列出所有已配置的提供程序及其可用模型
    • 无需参数
  3. 推理模型列表
    • 列出针对推理任务优化的模型
    • 无需参数

使用示例📝

// Get an opinion from GPT-4o { "provider": "openai", "model": "gpt-4o", "prompt": "What are the key considerations for database sharding?", "temperature": 0.7, "maxTokens": 1000 } // Get a reasoned response from OpenAI's o1 model { "provider": "openai", "model": "o1", "prompt": "Explain the mathematical principles behind database indexing", "reasoning_effort": "high", "maxTokens": 4000 } // Get a reasoned response from DeepSeek { "provider": "deepseek", "model": "deepseek-reasoner", "prompt": "What are the tradeoffs between microservices and monoliths?", "reasoning_effort": "high", "maxTokens": 2000 } // Use an OpenAI-compatible provider { "provider": "openaiCompatible", "model": "YOUR_MODEL_NAME", "prompt": "Explain the concept of eventual consistency in distributed systems", "temperature": 0.5, "maxTokens": 1500 }

开发🔧

  • npm run lint :运行 ESLint
  • npm run format :使用 Prettier 格式化代码
  • npm run clean :清理构建工件
  • npm run build :构建项目

贡献

欢迎 PR!帮助我们让 AI 工作流程更高效。


执照

MIT——做任何事都行,但不要作恶。


Pink Pixel用❤️制作

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

一种 AI 路由器,将应用程序连接到多个 LLM 提供商(OpenAI、Anthropic、Google、DeepSeek、Ollama 等),具有智能模型编排功能,可实现不同推理任务的模型之间的动态切换。

  1. Core Features 🔥
    1. Why MindBridge?
      1. Installation 🛠️
        1. Option 1: Install from npm (Recommended)
        2. Option 2: Install from source
      2. Configuration ⚙️
        1. Environment Variables
        2. MCP Configuration
      3. Usage 💫
        1. Starting the Server
        2. Available Tools
      4. Example Usage 📝
        1. Development 🔧
          1. Contributing
            1. License
              ID: wv06yveqx8