MindBridge MCP Server

Integrations

  • Supports configuration through environment variables for API keys and provider settings.

  • Enables access to Google AI models like Gemini, with configurable parameters and integration with the overall model orchestration system.

  • Available as an npm package for easy installation and integration into existing projects.

MindBridge MCP 서버 ⚡ 빅 브레인 무브를 위한 AI 라우터

MindBridge는 LLM 워크플로를 통합, 구성하고 강화하도록 구축된 모델 컨텍스트 프로토콜(MCP) 서버인 AI 명령 허브입니다.

벤더 종속도, 수십 개의 API를 동시에 조작하는 것도 잊어버리세요.
MindBridge는 앱을 OpenAI와 Anthropic부터 Ollama와 DeepSeek까지 모든 모델에 연결하고 전문가 컨설턴트 팀처럼 앱끼리 서로 통신할 수 있도록 해줍니다.

빠른 속도가 필요하신가요? 저렴한 모델을 선택하세요.
복잡한 추론이 필요하신가요? 전문가에게 문의하세요.
다른 사람의 의견을 듣고 싶으신가요? MindBridge에 그런 기능이 내장되어 있습니다.

이건 단순한 모델 집계가 아닙니다. 모델 오케스트레이션이죠.


핵심 기능 🔥

그것이 하는 일왜 사용해야 할까요?
다중 LLM 지원OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama(로컬 모델) 및 OpenAI 호환 API 간에 즉시 전환하세요.
추론 엔진 인식Claude, GPT-4o, DeepSeek Reasoner 등과 같은 심층 추론을 위해 구축된 모델에 대한 스마트 라우팅.
getSecondOpinion 도구여러 모델에게 동일한 질문을 하여 나란히 답변을 비교합니다.
OpenAI 호환 API 계층OpenAI 엔드포인트(Azure, Together.ai, Groq 등)를 기대하는 모든 도구에 MindBridge를 삽입합니다.
공급자 자동 감지키를 등록하기만 하면 됩니다. MindBridge가 자동으로 설정 및 검색을 처리합니다.
지옥처럼 유연하다환경 변수, MCP 구성 또는 JSON을 통해 모든 것을 구성하세요. 결정권은 귀하에게 있습니다.

왜 마인드브릿지인가?

"모든 LLM은 각자 잘하는 분야가 있습니다. MindBridge는 이들을 함께 활용하게 해줍니다."

다음에 적합합니다:

  • 에이전트 빌더
  • 다중 모델 워크플로
  • AI 오케스트레이션 엔진
  • 추론이 많은 작업
  • 더욱 스마트한 AI 개발 환경 구축
  • LLM 기반 백엔드
  • 공급업체로 둘러싸인 정원에 지친 사람이 있나요?

설치 🛠️

옵션 1: npm에서 설치(권장)

지엑스피1

옵션 2: 소스에서 설치

  1. 저장소를 복제합니다.
    git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. 종속성 설치:
    chmod +x install.sh ./install.sh
  3. 환경 변수 구성:
    cp .env.example .env
    .env 편집하여 사용하려는 공급자에 대한 API 키를 추가합니다.

구성 ⚙️

환경 변수

서버는 다음과 같은 환경 변수를 지원합니다.

  • OPENAI_API_KEY : OpenAI API 키
  • ANTHROPIC_API_KEY : Anthropic API 키
  • DEEPSEEK_API_KEY : DeepSeek API 키
  • GOOGLE_API_KEY : Google AI API 키
  • OPENROUTER_API_KEY : OpenRouter API 키
  • OLLAMA_BASE_URL : Ollama 인스턴스 URL(기본값: http://localhost:11434 )
  • OPENAI_COMPATIBLE_API_KEY : (선택 사항) OpenAI 호환 서비스에 대한 API 키
  • OPENAI_COMPATIBLE_API_BASE_URL : OpenAI 호환 서비스의 기본 URL
  • OPENAI_COMPATIBLE_API_MODELS : 사용 가능한 모델의 쉼표로 구분된 목록

MCP 구성

Cursor나 Windsurf와 같은 MCP 호환 IDE와 함께 사용하려면 mcp.json 파일에서 다음 구성을 사용할 수 있습니다.

{ "mcpServers": { "mindbridge": { "command": "npx", "args": [ "-y", "@pinkpixel/mindbridge" ], "env": { "OPENAI_API_KEY": "OPENAI_API_KEY_HERE", "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE", "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE", "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE", "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE" }, "provider_config": { "openai": { "default_model": "gpt-4o" }, "anthropic": { "default_model": "claude-3-5-sonnet-20241022" }, "google": { "default_model": "gemini-2.0-flash" }, "deepseek": { "default_model": "deepseek-chat" }, "openrouter": { "default_model": "openai/gpt-4o" }, "ollama": { "base_url": "http://localhost:11434", "default_model": "llama3" }, "openai_compatible": { "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED", "base_url": "FULL_API_URL_HERE", "available_models": ["MODEL1", "MODEL2"], "default_model": "MODEL1" } }, "default_params": { "temperature": 0.7, "reasoning_effort": "medium" }, "alwaysAllow": [ "getSecondOpinion", "listProviders", "listReasoningModels" ] } } }

API 키를 실제 키로 바꾸세요. OpenAI 호환 구성의 경우, 서비스에 인증이 필요하지 않으면 api_key 필드를 제거할 수 있습니다.

사용법 💫

서버 시작

자동 재로드가 가능한 개발 모드:

npm run dev

생산 모드:

npm run build npm start

전역적으로 설치 시:

mindbridge

사용 가능한 도구

  1. 두 번째 의견 얻기
    { provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }
  2. 목록 공급자
    • 구성된 모든 공급자와 사용 가능한 모델을 나열합니다.
    • 매개변수가 필요하지 않습니다
  3. listReasoningModels
    • 추론 작업에 최적화된 모델을 나열합니다.
    • 매개변수가 필요하지 않습니다

사용 예 📝

// Get an opinion from GPT-4o { "provider": "openai", "model": "gpt-4o", "prompt": "What are the key considerations for database sharding?", "temperature": 0.7, "maxTokens": 1000 } // Get a reasoned response from OpenAI's o1 model { "provider": "openai", "model": "o1", "prompt": "Explain the mathematical principles behind database indexing", "reasoning_effort": "high", "maxTokens": 4000 } // Get a reasoned response from DeepSeek { "provider": "deepseek", "model": "deepseek-reasoner", "prompt": "What are the tradeoffs between microservices and monoliths?", "reasoning_effort": "high", "maxTokens": 2000 } // Use an OpenAI-compatible provider { "provider": "openaiCompatible", "model": "YOUR_MODEL_NAME", "prompt": "Explain the concept of eventual consistency in distributed systems", "temperature": 0.5, "maxTokens": 1500 }

개발 🔧

  • npm run lint : ESLint 실행
  • npm run format : Prettier로 코드 포맷하기
  • npm run clean : 빌드 아티팩트 정리
  • npm run build : 프로젝트 빌드

기여하다

홍보 환영! AI 워크플로우를 좀 더 단순하게 만드는 데 도움을 주세요.


특허

MIT — 뭐든지 하세요. 다만 악하게 행동하지 마세요.


Pink Pixel 에서 ❤️로 만들었습니다

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

여러 LLM 공급자(OpenAI, Anthropic, Google, DeepSeek, Ollama 등)에 애플리케이션을 연결하는 AI 라우터로, 스마트 모델 오케스트레이션 기능을 통해 다양한 추론 작업에 맞게 모델 간에 동적으로 전환할 수 있습니다.

  1. 핵심 기능 🔥
    1. 왜 마인드브릿지인가?
      1. 설치 🛠️
        1. 옵션 1: npm에서 설치(권장)
        2. 옵션 2: 소스에서 설치
      2. 구성 ⚙️
        1. 환경 변수
        2. MCP 구성
      3. 사용법 💫
        1. 서버 시작
        2. 사용 가능한 도구
      4. 사용 예 📝
        1. 개발 🔧
          1. 기여하다
            1. 특허

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                Provides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.
                Last updated -
                4
                154
                28
                TypeScript
                Apache 2.0
              • A
                security
                F
                license
                A
                quality
                A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
                Last updated -
                10
                33
                JavaScript
                • Apple
              • A
                security
                F
                license
                A
                quality
                A server that implements the Model Context Protocol to connect LLMs to Brightsy AI agents, allowing users to pass messages to and receive responses from these agents.
                Last updated -
                1
                96
                JavaScript
              • -
                security
                F
                license
                -
                quality
                A Model Context Protocol server that enables conversational LLMs to delegate complex research tasks to specialized AI agents powered by various OpenRouter models, coordinated by a Claude orchestrator.
                Last updated -
                1
                JavaScript
                • Apple

              View all related MCP servers

              ID: wv06yveqx8