Skip to main content
Glama

OpenRouter MCP Multimodal Server

OpenRouter MCP 멀티모달 서버

OpenRouter.ai의 다양한 모델 생태계를 통해 채팅 및 이미지 분석 기능을 제공하는 MCP(Model Context Protocol) 서버입니다. 이 서버는 텍스트 채팅 기능과 강력한 이미지 분석 기능을 결합합니다.

특징

  • 텍스트 채팅:
    • 모든 OpenRouter.ai 채팅 모델에 직접 액세스
    • 간단한 텍스트 및 다중 모드 대화 지원
    • 구성 가능한 온도 및 기타 매개변수
  • 이미지 분석:
    • 사용자 정의 질문으로 단일 이미지 분석
    • 여러 이미지를 동시에 처리
    • 자동 이미지 크기 조정 및 최적화
    • 다양한 이미지 소스(로컬 파일, URL, 데이터 URL) 지원
  • 모델 선택:
    • 사용 가능한 모델 검색 및 필터링
    • 모델 ID 검증
    • 자세한 모델 정보를 얻으세요
    • 기본 모델 구성 지원
  • 성능 최적화:
    • 스마트 모델 정보 캐싱
    • 재시도를 위한 지수적 백오프
    • 자동 요금 제한 처리

1.5.0의 새로운 기능

  • 향상된 OS 호환성:
    • Windows, macOS 및 Linux에 대한 향상된 경로 처리
    • 드라이브 문자가 포함된 Windows 스타일 경로에 대한 더 나은 지원
    • 플랫폼 간 일관된 동작을 위한 정규화된 경로 처리
  • MCP 구성 지원:
    • 환경 변수가 필요 없는 커서 MCP 통합
    • MCP 매개변수를 통한 직접 구성
    • 유연한 API 키 및 모델 사양 옵션
  • 강력한 오류 처리:
    • 이미지 처리를 위한 개선된 대체 메커니즘
    • 특정 진단을 통한 더 나은 오류 보고
    • 파일 읽기를 위한 다양한 백업 전략
  • 이미지 처리 개선 사항:
    • 모든 이미지 유형에 대해 더욱 안정적인 base64 인코딩
    • Sharp 모듈을 사용할 수 없는 경우 대체 옵션
    • 자동 최적화를 통해 대용량 이미지를 더 잘 처리합니다.

설치

옵션 1: npm을 통해 설치

지엑스피1

옵션 2: Docker를 통해 실행

docker run -i -e OPENROUTER_API_KEY=your-api-key-here stabgandocker/openrouter-mcp-multimodal:latest

빠른 시작 구성

필수 조건

  1. OpenRouter Keys 에서 OpenRouter API 키를 받으세요
  2. 기본 모델을 선택하세요(선택 사항)

MCP 구성 옵션

다음 구성 중 하나를 MCP 설정 파일에 추가합니다(예: cline_mcp_settings.json 또는 claude_desktop_config.json ):

옵션 1: npx 사용(Node.js)
{ "mcpServers": { "openrouter": { "command": "npx", "args": [ "-y", "@stabgan/openrouter-mcp-multimodal" ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" } } } }
옵션 2: uv(Python 패키지 관리자) 사용
{ "mcpServers": { "openrouter": { "command": "uv", "args": [ "run", "-m", "openrouter_mcp_multimodal" ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" } } } }
옵션 3: Docker 사용
{ "mcpServers": { "openrouter": { "command": "docker", "args": [ "run", "--rm", "-i", "-e", "OPENROUTER_API_KEY=your-api-key-here", "-e", "DEFAULT_MODEL=qwen/qwen2.5-vl-32b-instruct:free", "stabgandocker/openrouter-mcp-multimodal:latest" ] } } }
옵션 4: 대장간 사용(권장)
{ "mcpServers": { "openrouter": { "command": "smithery", "args": [ "run", "stabgan/openrouter-mcp-multimodal" ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" } } } }

예시

이 MCP 서버 사용 방법에 대한 포괄적인 예제는 예제 디렉토리를 참조하세요. 다음이 제공됩니다.

  • Node.js 애플리케이션을 위한 JavaScript 예제
  • 대화형 채팅 기능을 갖춘 Python 예제
  • 다양한 애플리케이션과 통합하기 위한 코드 조각

각 예제에는 명확한 설명서와 단계별 지침이 제공됩니다.

종속성

이 프로젝트는 다음과 같은 주요 종속성을 사용합니다.

  • @modelcontextprotocol/sdk : ^1.8.0 - 도구 구현을 위한 최신 MCP SDK
  • openai : ^4.89.1 - OpenRouter용 OpenAI 호환 API 클라이언트
  • sharp : ^0.33.5 - 빠른 이미지 처리 라이브러리
  • axios : ^1.8.4 - API 요청을 위한 HTTP 클라이언트
  • node-fetch : ^3.3.2 - 최신 fetch 구현

Node.js 18 이상이 필요합니다. 모든 종속성은 호환성과 보안을 보장하기 위해 정기적으로 업데이트됩니다.

사용 가능한 도구

mcp_openrouter_chat_completion

OpenRouter 모델에 텍스트 또는 다중 모드 메시지를 보냅니다.

use_mcp_tool({ server_name: "openrouter", tool_name: "mcp_openrouter_chat_completion", arguments: { model: "google/gemini-2.5-pro-exp-03-25:free", // Optional if default is set messages: [ { role: "system", content: "You are a helpful assistant." }, { role: "user", content: "What is the capital of France?" } ], temperature: 0.7 // Optional, defaults to 1.0 } });

이미지가 포함된 다중 모드 메시지의 경우:

use_mcp_tool({ server_name: "openrouter", tool_name: "mcp_openrouter_chat_completion", arguments: { model: "anthropic/claude-3.5-sonnet", messages: [ { role: "user", content: [ { type: "text", text: "What's in this image?" }, { type: "image_url", image_url: { url: "https://example.com/image.jpg" } } ] } ] } });
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

OpenRouter.ai의 다양한 모델 생태계를 통해 채팅 및 이미지 분석 기능을 제공하여 다양한 AI 모델을 통해 텍스트 대화와 강력한 멀티모달 이미지 처리를 모두 지원합니다.

  1. 특징
    1. 1.5.0의 새로운 기능
      1. 설치
        1. 옵션 1: npm을 통해 설치
        2. 옵션 2: Docker를 통해 실행
      2. 빠른 시작 구성
        1. 필수 조건
        2. MCP 구성 옵션
      3. 예시
        1. 종속성
          1. 사용 가능한 도구
            1. mcp\_openrouter\_chat\_completion

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            A powerful server that integrates the Moondream vision model to enable advanced image analysis, including captioning, object detection, and visual question answering, through the Model Context Protocol, compatible with AI assistants like Claude and Cline.
            Last updated -
            11
            JavaScript
            Apache 2.0
          • -
            security
            A
            license
            -
            quality
            A TypeScript-based MCP server that provides two tools for chatting with Mistral AI models, supporting both text-only conversations and image+text inputs.
            Last updated -
            JavaScript
            MIT License
            • Apple
          • A
            security
            F
            license
            A
            quality
            Enables AI assistants to interact with Figma files through the ModelContextProtocol, allowing viewing, commenting, and analyzing Figma designs directly in chat interfaces.
            Last updated -
            5
            997
            173
            TypeScript
            • Apple
          • A
            security
            A
            license
            A
            quality
            Enables AI models to interact with messages from various messaging platforms (Mobile, Mail, WhatsApp, LinkedIn, Slack, Twitter, Telegram, Instagram, Messenger) through a standardized interface.
            Last updated -
            3
            8
            Python
            MIT License
            • Linux

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/stabgan/openrouter-mcp-multimodal'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server