Integrations
Supports configuration through environment variables for API keys and provider settings.
Enables access to Google AI models like Gemini, with configurable parameters and integration with the overall model orchestration system.
Available as an npm package for easy installation and integration into existing projects.
MindBridge MCP 서버 ⚡ 빅 브레인 무브를 위한 AI 라우터
MindBridge는 LLM 워크플로를 통합, 구성하고 강화하도록 구축된 모델 컨텍스트 프로토콜(MCP) 서버인 AI 명령 허브입니다.
벤더 종속도, 수십 개의 API를 동시에 조작하는 것도 잊어버리세요.
MindBridge는 앱을 OpenAI와 Anthropic부터 Ollama와 DeepSeek까지 모든 모델에 연결하고 전문가 컨설턴트 팀처럼 앱끼리 서로 통신할 수 있도록 해줍니다.
빠른 속도가 필요하신가요? 저렴한 모델을 선택하세요.
복잡한 추론이 필요하신가요? 전문가에게 문의하세요.
다른 사람의 의견을 듣고 싶으신가요? MindBridge에 그런 기능이 내장되어 있습니다.
이건 단순한 모델 집계가 아닙니다. 모델 오케스트레이션이죠.
핵심 기능 🔥
그것이 하는 일 | 왜 사용해야 할까요? |
---|---|
다중 LLM 지원 | OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama(로컬 모델) 및 OpenAI 호환 API 간에 즉시 전환하세요. |
추론 엔진 인식 | Claude, GPT-4o, DeepSeek Reasoner 등과 같은 심층 추론을 위해 구축된 모델에 대한 스마트 라우팅. |
getSecondOpinion 도구 | 여러 모델에게 동일한 질문을 하여 나란히 답변을 비교합니다. |
OpenAI 호환 API 계층 | OpenAI 엔드포인트(Azure, Together.ai, Groq 등)를 기대하는 모든 도구에 MindBridge를 삽입합니다. |
공급자 자동 감지 | 키를 등록하기만 하면 됩니다. MindBridge가 자동으로 설정 및 검색을 처리합니다. |
지옥처럼 유연하다 | 환경 변수, MCP 구성 또는 JSON을 통해 모든 것을 구성하세요. 결정권은 귀하에게 있습니다. |
왜 마인드브릿지인가?
"모든 LLM은 각자 잘하는 분야가 있습니다. MindBridge는 이들을 함께 활용하게 해줍니다."
다음에 적합합니다:
- 에이전트 빌더
- 다중 모델 워크플로
- AI 오케스트레이션 엔진
- 추론이 많은 작업
- 더욱 스마트한 AI 개발 환경 구축
- LLM 기반 백엔드
- 공급업체로 둘러싸인 정원에 지친 사람이 있나요?
설치 🛠️
옵션 1: npm에서 설치(권장)
지엑스피1
옵션 2: 소스에서 설치
- 저장소를 복제합니다.Copy
- 종속성 설치:Copy
- 환경 변수 구성:Copy
.env
편집하여 사용하려는 공급자에 대한 API 키를 추가합니다.
구성 ⚙️
환경 변수
서버는 다음과 같은 환경 변수를 지원합니다.
OPENAI_API_KEY
: OpenAI API 키ANTHROPIC_API_KEY
: Anthropic API 키DEEPSEEK_API_KEY
: DeepSeek API 키GOOGLE_API_KEY
: Google AI API 키OPENROUTER_API_KEY
: OpenRouter API 키OLLAMA_BASE_URL
: Ollama 인스턴스 URL(기본값: http://localhost:11434 )OPENAI_COMPATIBLE_API_KEY
: (선택 사항) OpenAI 호환 서비스에 대한 API 키OPENAI_COMPATIBLE_API_BASE_URL
: OpenAI 호환 서비스의 기본 URLOPENAI_COMPATIBLE_API_MODELS
: 사용 가능한 모델의 쉼표로 구분된 목록
MCP 구성
Cursor나 Windsurf와 같은 MCP 호환 IDE와 함께 사용하려면 mcp.json
파일에서 다음 구성을 사용할 수 있습니다.
API 키를 실제 키로 바꾸세요. OpenAI 호환 구성의 경우, 서비스에 인증이 필요하지 않으면 api_key
필드를 제거할 수 있습니다.
사용법 💫
서버 시작
자동 재로드가 가능한 개발 모드:
생산 모드:
전역적으로 설치 시:
사용 가능한 도구
- 두 번째 의견 얻기Copy
- 목록 공급자
- 구성된 모든 공급자와 사용 가능한 모델을 나열합니다.
- 매개변수가 필요하지 않습니다
- listReasoningModels
- 추론 작업에 최적화된 모델을 나열합니다.
- 매개변수가 필요하지 않습니다
사용 예 📝
개발 🔧
npm run lint
: ESLint 실행npm run format
: Prettier로 코드 포맷하기npm run clean
: 빌드 아티팩트 정리npm run build
: 프로젝트 빌드
기여하다
홍보 환영! AI 워크플로우를 좀 더 단순하게 만드는 데 도움을 주세요.
특허
MIT — 뭐든지 하세요. 다만 악하게 행동하지 마세요.
Pink Pixel 에서 ❤️로 만들었습니다
You must be authenticated.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
여러 LLM 공급자(OpenAI, Anthropic, Google, DeepSeek, Ollama 등)에 애플리케이션을 연결하는 AI 라우터로, 스마트 모델 오케스트레이션 기능을 통해 다양한 추론 작업에 맞게 모델 간에 동적으로 전환할 수 있습니다.
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityProvides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.Last updated -415428TypeScriptApache 2.0
- AsecurityFlicenseAqualityA bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.Last updated -1033JavaScript
- AsecurityFlicenseAqualityA server that implements the Model Context Protocol to connect LLMs to Brightsy AI agents, allowing users to pass messages to and receive responses from these agents.Last updated -196JavaScript
- -securityFlicense-qualityA Model Context Protocol server that enables conversational LLMs to delegate complex research tasks to specialized AI agents powered by various OpenRouter models, coordinated by a Claude orchestrator.Last updated -1JavaScript