Skip to main content
Glama

MindBridge MCP 服务器⚡ 大脑活动所需的 AI 路由器

MindBridge 是您的 AI 指挥中心——一个模型上下文协议 (MCP) 服务器,旨在统一、组织和增强您的 LLM 工作流程。

忘记供应商锁定。忘记处理十几个 API。
MindBridge 将您的应用程序连接到任何模型,从 OpenAI 和 Anthropic 到 Ollama 和 DeepSeek,并让它们像专家顾问团队一样相互交谈。

需要极致速度?那就买个便宜的型号吧。
需要复杂的推理?请联系专家。
想要听取第二意见?MindBridge 内置了此功能。

这不仅仅是模型聚合,更是模型编排。


核心功能🔥

它的作用

为什么要使用它

多LLM支持

立即在 OpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama(本地模型)和 OpenAI 兼容 API 之间切换。

推理引擎感知

智能路由到为深度推理而构建的模型,如 Claude、GPT-4o、DeepSeek Reasoner 等。

getSecondOpinion 工具

向多个模型询问相同的问题,以并排比较答案。

OpenAI兼容API层

将 MindBridge 放入任何需要 OpenAI 端点的工具中(Azure、Together.ai、Groq 等)。

自动检测提供商

只需添加您的密钥。MindBridge 会自动处理设置和发现。

极其灵活

通过环境变量、MCP 配置或 JSON 配置一切 — — 由您决定。


Related MCP server: LLM Bridge MCP

为什么选择 MindBridge?

“每个法学硕士都有自己擅长的领域。MindBridge 让他们能够协同工作。”

适合:

  • 代理建造者

  • 多模型工作流程

  • AI编排引擎

  • 推理密集型任务

  • 构建更智能的AI开发环境

  • LLM 支持的后端

  • 厌倦了供应商围墙花园的人


安装🛠️

选项 1:从 npm 安装(推荐)

# Install globally
npm install -g @pinkpixel/mindbridge

# use with npx
npx @pinkpixel/mindbridge

选项 2:从源安装

  1. 克隆存储库:

    git clone https://github.com/pinkpixel-dev/mindbridge.git
    cd mindbridge
  2. 安装依赖项:

    chmod +x install.sh
    ./install.sh
  3. 配置环境变量:

    cp .env.example .env

    编辑.env并为您想要使用的提供商添加 API 密钥。

配置⚙️

环境变量

服务器支持以下环境变量:

  • OPENAI_API_KEY :您的 OpenAI API 密钥

  • ANTHROPIC_API_KEY :您的 Anthropic API 密钥

  • DEEPSEEK_API_KEY :您的 DeepSeek API 密钥

  • GOOGLE_API_KEY :您的 Google AI API 密钥

  • OPENROUTER_API_KEY :您的 OpenRouter API 密钥

  • OLLAMA_BASE_URL :Ollama 实例 URL(默认值: http://localhost:11434

  • OPENAI_COMPATIBLE_API_KEY :(可选)OpenAI 兼容服务的 API 密钥

  • OPENAI_COMPATIBLE_API_BASE_URL :OpenAI 兼容服务的基本 URL

  • OPENAI_COMPATIBLE_API_MODELS :可用模型的逗号分隔列表

MCP 配置

为了与 Cursor 或 Windsurf 等 MCP 兼容 IDE 一起使用,您可以在mcp.json文件中使用以下配置:

{
  "mcpServers": {
    "mindbridge": {
      "command": "npx",
      "args": [
        "-y",
        "@pinkpixel/mindbridge"
      ],
      "env": {
        "OPENAI_API_KEY": "OPENAI_API_KEY_HERE",
        "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE",
        "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE",
        "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE",
        "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE"
      },
      "provider_config": {
        "openai": {
          "default_model": "gpt-4o"
        },
        "anthropic": {
          "default_model": "claude-3-5-sonnet-20241022"
        },
        "google": {
          "default_model": "gemini-2.0-flash"
        },
        "deepseek": {
          "default_model": "deepseek-chat"
        },
        "openrouter": {
          "default_model": "openai/gpt-4o"
        },
        "ollama": {
          "base_url": "http://localhost:11434",
          "default_model": "llama3"
        },
        "openai_compatible": {
          "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED",
          "base_url": "FULL_API_URL_HERE",
          "available_models": ["MODEL1", "MODEL2"],
          "default_model": "MODEL1"
        }
      },
      "default_params": {
        "temperature": 0.7,
        "reasoning_effort": "medium"
      },
      "alwaysAllow": [
        "getSecondOpinion",
        "listProviders",
        "listReasoningModels"
      ]
    }
  }
}

将 API 密钥替换为您的实际密钥。对于与 OpenAI 兼容的配置,如果服务不需要身份验证,则可以删除api_key字段。

使用方法💫

启动服务器

具有自动重新加载的开发模式:

npm run dev

生产方式:

npm run build
npm start

全局安装时:

mindbridge

可用工具

  1. 获取第二意见

    {
      provider: string;  // LLM provider name
      model: string;     // Model identifier
      prompt: string;    // Your question or prompt
      systemPrompt?: string;  // Optional system instructions
      temperature?: number;   // Response randomness (0-1)
      maxTokens?: number;    // Maximum response length
      reasoning_effort?: 'low' | 'medium' | 'high';  // For reasoning models
    }
  2. 列出提供商

    • 列出所有已配置的提供程序及其可用模型

    • 无需参数

  3. 推理模型列表

    • 列出针对推理任务优化的模型

    • 无需参数

使用示例📝

// Get an opinion from GPT-4o
{
  "provider": "openai",
  "model": "gpt-4o",
  "prompt": "What are the key considerations for database sharding?",
  "temperature": 0.7,
  "maxTokens": 1000
}

// Get a reasoned response from OpenAI's o1 model
{
  "provider": "openai",
  "model": "o1",
  "prompt": "Explain the mathematical principles behind database indexing",
  "reasoning_effort": "high",
  "maxTokens": 4000
}

// Get a reasoned response from DeepSeek
{
  "provider": "deepseek",
  "model": "deepseek-reasoner",
  "prompt": "What are the tradeoffs between microservices and monoliths?",
  "reasoning_effort": "high",
  "maxTokens": 2000
}

// Use an OpenAI-compatible provider
{
  "provider": "openaiCompatible",
  "model": "YOUR_MODEL_NAME",
  "prompt": "Explain the concept of eventual consistency in distributed systems",
  "temperature": 0.5,
  "maxTokens": 1500
}

开发🔧

  • npm run lint :运行 ESLint

  • npm run format :使用 Prettier 格式化代码

  • npm run clean :清理构建工件

  • npm run build :构建项目

贡献

欢迎 PR!帮助我们让 AI 工作流程更高效。


执照

MIT——做任何事都行,但不要作恶。


Pink Pixel用❤️制作

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/pinkpixel-dev/mindbridge-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server