Skip to main content
Glama
JamesANZ

Cross-LLM MCP Server

🤖 Cross-LLM MCP 서버

여러 LLM API를 한곳에서 액세스하세요. ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral 및 Hugging Face Inference Router를 지능형 모델 선택, 환경 설정 및 프롬프트 로깅 기능과 함께 호출할 수 있습니다.

Cursor 및 Claude Desktop과 같은 AI 코딩 환경을 위해 여러 대규모 언어 모델(LLM) API에 대한 통합 액세스를 제공하는 MCP(Model Context Protocol) 서버입니다.

Trust Score

Cross-LLM MCP를 사용하는 이유

  • 🌐 9개 LLM 제공업체 – ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral, Hugging Face

  • 🎯 스마트 모델 선택 – 태그 기반 환경 설정 (코딩, 비즈니스, 추론, 수학, 창의적 작업, 일반)

  • 📊 프롬프트 로깅 – 기록, 통계 및 분석을 통해 모든 프롬프트 추적

  • 💰 비용 최적화 – 환경 설정에 따라 플래그십 모델 또는 저렴한 모델 선택

  • 간편한 설정 – Cursor에서 클릭 한 번으로 설치하거나 간단한 수동 설정 가능

  • 🔄 모든 LLM 호출 – 모든 제공업체로부터 동시에 응답 받기

Related MCP server: URL Fetch MCP

빠른 시작

여러 LLM에 액세스할 준비가 되셨나요? 몇 초 만에 설치하세요:

Cursor에 설치 (권장):

🔗 Cursor에 설치

또는 수동 설치:

npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run build

기능

🤖 개별 LLM 도구

  • call-chatgpt – OpenAI의 ChatGPT API

  • call-claude – Anthropic의 Claude API

  • call-deepseek – DeepSeek API

  • call-gemini – Google의 Gemini API

  • call-grok – xAI의 Grok API

  • call-kimi – Moonshot AI의 Kimi API

  • call-perplexity – Perplexity AI API

  • call-mistral – Mistral AI API

  • call-huggingface – Hugging Face Inference Router (OpenAI 호환 허브 모델)

🔄 결합 도구

  • call-all-llms – 동일한 프롬프트로 모든 LLM 호출

  • call-llm – 이름으로 특정 제공업체 호출

⚙️ 환경 설정 및 모델 선택

  • get-user-preferences – 현재 환경 설정 가져오기

  • set-user-preferences – 기본 모델, 비용 환경 설정 및 태그 기반 환경 설정 설정

  • get-models-by-tag – 태그별 모델 찾기 (코딩, 비즈니스, 추론, 수학, 창의적 작업, 일반)

📝 프롬프트 로깅

  • get-prompt-history – 필터를 사용하여 프롬프트 기록 보기

  • get-prompt-stats – 프롬프트 로그에 대한 통계 가져오기

  • delete-prompt-entries – 기준에 따라 로그 항목 삭제

  • clear-prompt-history – 모든 프롬프트 로그 지우기

설치

Cursor (원클릭)

위의 설치 링크를 클릭하거나 다음을 사용하세요:

cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=

설치 후 Cursor 설정에서 API 키를 추가하세요 (아래 구성 참조).

수동 설치

요구 사항: Node.js 18+ 및 npm

# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run build

Claude Desktop

claude_desktop_config.json에 추가하세요:

macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json

{
  "mcpServers": {
    "cross-llm-mcp": {
      "command": "node",
      "args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
      "env": {
        "OPENAI_API_KEY": "your_openai_api_key_here",
        "ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
        "DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
        "GEMINI_API_KEY": "your_gemini_api_key_here",
        "XAI_API_KEY": "your_grok_api_key_here",
        "KIMI_API_KEY": "your_kimi_api_key_here",
        "PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
        "MISTRAL_API_KEY": "your_mistral_api_key_here",
        "HF_TOKEN": "your_huggingface_token_here"
      }
    }
  }
}

구성 후 Claude Desktop을 다시 시작하세요.

구성

API 키

사용하려는 LLM 제공업체에 대한 환경 변수를 설정하세요:

export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)

API 키 가져오기

로컬에서 허브 모델 실행 (이 MCP 외부)

이 서버는 Hugging Face의 호스팅된 Inference Router를 호출합니다. 가중치를 다운로드하거나 Node 내부에서 PyTorch/GGUF를 실행하지 않습니다. 머신에서 모델을 실행하려면 Ollama, llama.cpp, Text Generation Inference 또는 Hugging Face Inference Endpoints와 같은 도구를 사용한 다음, 해당 서비스가 API를 노출하는 경우 다른 클라이언트를 해당 서비스로 지정하세요.

사용 예시

ChatGPT 호출

OpenAI로부터 응답 받기:

{
  "tool": "call-chatgpt",
  "arguments": {
    "prompt": "Explain quantum computing in simple terms",
    "temperature": 0.7,
    "max_tokens": 500
  }
}

Hugging Face 호출

Inference Router를 통해 허브 모델로부터 응답 받기 (model은 허브 저장소 ID, 예: Qwen/Qwen2.5-7B-Instruct):

{
  "tool": "call-huggingface",
  "arguments": {
    "prompt": "Reply with exactly: ok",
    "model": "Qwen/Qwen2.5-7B-Instruct",
    "temperature": 0.3,
    "max_tokens": 32
  }
}

모든 LLM 호출

모든 제공업체로부터 응답 받기:

{
  "tool": "call-all-llms",
  "arguments": {
    "prompt": "Write a short poem about AI",
    "temperature": 0.8
  }
}

태그 기반 환경 설정

각 작업 유형에 가장 적합한 모델을 자동으로 사용:

{
  "tool": "set-user-preferences",
  "arguments": {
    "defaultModel": "gpt-4o",
    "costPreference": "cheaper",
    "tagPreferences": {
      "coding": "deepseek-r1",
      "general": "gpt-4o",
      "business": "claude-3.5-sonnet-20241022",
      "reasoning": "deepseek-r1",
      "math": "deepseek-r1",
      "creative": "gpt-4o"
    }
  }
}

프롬프트 기록 가져오기

프롬프트 로그 보기:

{
  "tool": "get-prompt-history",
  "arguments": {
    "provider": "chatgpt",
    "limit": 10
  }
}

모델 태그

모델은 강점에 따라 태그가 지정됩니다:

  • 코딩: deepseek-r1, deepseek-coder, gpt-4o, claude-3.5-sonnet-20241022

  • 비즈니스: claude-3-opus-20240229, gpt-4o, gemini-1.5-pro

  • 추론: deepseek-r1, o1-preview, claude-3.5-sonnet-20241022

  • 수학: deepseek-r1, o1-preview, o1-mini

  • 창의적 작업: gpt-4o, claude-3-opus-20240229, gemini-1.5-pro

  • 일반: gpt-4o-mini, claude-3-haiku-20240307, gemini-1.5-flash

사용 사례

  • 다각적 분석 – 여러 LLM으로부터 다양한 관점 얻기

  • 모델 비교 – 응답을 비교하여 강점과 약점 파악

  • 비용 최적화 – 각 작업에 가장 비용 효율적인 모델 선택

  • 품질 보증 – 여러 모델의 응답을 교차 참조

  • 지능형 선택 – 코딩, 비즈니스, 추론 등을 위해 자동으로 최적의 모델 사용

  • 프롬프트 분석 – 자동 로깅을 통해 사용량, 비용 및 패턴 추적

기술 세부 정보

빌드 도구: Node.js, TypeScript, MCP SDK
종속성: @modelcontextprotocol/sdk, superagent, zod
플랫폼: macOS, Windows, Linux

환경 설정 저장소:

  • Unix/macOS: ~/.cross-llm-mcp/preferences.json

  • Windows: %APPDATA%/cross-llm-mcp/preferences.json

프롬프트 로그 저장소:

  • Unix/macOS: ~/.cross-llm-mcp/prompts.json

  • Windows: %APPDATA%/cross-llm-mcp/prompts.json

기여

이 프로젝트가 도움이 되었다면 GitHub에서 별을 눌러주세요!

기여를 환영합니다! 이슈를 열거나 풀 리퀘스트를 제출해 주세요.

라이선스

MIT 라이선스 – 자세한 내용은 LICENSE.md를 참조하세요.

지원

이 프로젝트가 유용하다고 생각되면 지원을 고려해 주세요:

⚡ Lightning Network

lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa

₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp

Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server