Skip to main content
Glama

OpenRouter MCP Multimodal Server

Servidor multimodal OpenRouter MCP

Un servidor MCP (Protocolo de Contexto de Modelo) que ofrece funciones de chat y análisis de imágenes a través del diverso ecosistema de modelos de OpenRouter.ai. Este servidor combina la funcionalidad de chat de texto con potentes funciones de análisis de imágenes.

Características

  • Chat de texto:
    • Acceso directo a todos los modelos de chat de OpenRouter.ai
    • Soporte para texto simple y conversaciones multimodales
    • Temperatura configurable y otros parámetros
  • Análisis de imagen:
    • Analice imágenes individuales con preguntas personalizadas
    • Procesar múltiples imágenes simultáneamente
    • Optimización y cambio de tamaño automático de imágenes
    • Compatibilidad con diversas fuentes de imágenes (archivos locales, URL, URL de datos)
  • Selección de modelo:
    • Buscar y filtrar los modelos disponibles
    • Validar los identificadores de modelo
    • Obtenga información detallada del modelo
    • Soporte para configuración de modelo predeterminada
  • Optimización del rendimiento:
    • Almacenamiento en caché de información de modelos inteligentes
    • Retroceso exponencial para reintentos
    • Manejo automático del límite de velocidad

Novedades de la versión 1.5.0

  • Compatibilidad mejorada con sistemas operativos:
    • Manejo de rutas mejorado para Windows, macOS y Linux
    • Mejor soporte para rutas de estilo Windows con letras de unidad
    • Procesamiento de rutas normalizado para un comportamiento consistente en todas las plataformas
  • Soporte de configuración de MCP:
    • Integración de Cursor MCP sin requerir variables de entorno
    • Configuración directa a través de parámetros MCP
    • Opciones flexibles de especificación de modelos y claves API
  • Manejo robusto de errores:
    • Mecanismos de respaldo mejorados para el procesamiento de imágenes
    • Mejores informes de errores con diagnósticos específicos
    • Múltiples estrategias de respaldo para la lectura de archivos
  • Mejoras en el procesamiento de imágenes:
    • Codificación base64 más confiable para todos los tipos de imágenes
    • Opciones de respaldo cuando el módulo Sharp no está disponible
    • Mejor manejo de imágenes grandes con optimización automática

Instalación

Opción 1: Instalar mediante npm

npm install -g @stabgan/openrouter-mcp-multimodal

Opción 2: Ejecutar a través de Docker

docker run -i -e OPENROUTER_API_KEY=your-api-key-here stabgandocker/openrouter-mcp-multimodal:latest

Configuración de inicio rápido

Prerrequisitos

  1. Obtenga su clave API de OpenRouter de OpenRouter Keys
  2. Elija un modelo predeterminado (opcional)

Opciones de configuración de MCP

Agregue una de las siguientes configuraciones a su archivo de configuración de MCP (por ejemplo, cline_mcp_settings.json o claude_desktop_config.json ):

Opción 1: Usar npx (Node.js)
{ "mcpServers": { "openrouter": { "command": "npx", "args": [ "-y", "@stabgan/openrouter-mcp-multimodal" ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" } } } }
Opción 2: Usar uv (Administrador de paquetes de Python)
{ "mcpServers": { "openrouter": { "command": "uv", "args": [ "run", "-m", "openrouter_mcp_multimodal" ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" } } } }
Opción 3: Usar Docker
{ "mcpServers": { "openrouter": { "command": "docker", "args": [ "run", "--rm", "-i", "-e", "OPENROUTER_API_KEY=your-api-key-here", "-e", "DEFAULT_MODEL=qwen/qwen2.5-vl-32b-instruct:free", "stabgandocker/openrouter-mcp-multimodal:latest" ] } } }
Opción 4: Uso de herrería (recomendado)
{ "mcpServers": { "openrouter": { "command": "smithery", "args": [ "run", "stabgan/openrouter-mcp-multimodal" ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" } } } }

Ejemplos

Para ver ejemplos completos de cómo usar este servidor MCP, consulte el directorio de ejemplos . Ofrecemos:

  • Ejemplos de JavaScript para aplicaciones Node.js
  • Ejemplos de Python con capacidades de chat interactivo
  • Fragmentos de código para la integración con varias aplicaciones

Cada ejemplo viene con documentación clara e instrucciones paso a paso.

Dependencias

Este proyecto utiliza las siguientes dependencias clave:

  • @modelcontextprotocol/sdk : ^1.8.0 - El último SDK de MCP para la implementación de herramientas
  • openai : ^4.89.1 - Cliente API compatible con OpenAI para OpenRouter
  • sharp : ^0.33.5 - Biblioteca de procesamiento rápido de imágenes
  • axios : ^1.8.4 - Cliente HTTP para solicitudes API
  • node-fetch : ^3.3.2 - Implementación de búsqueda moderna

Se requiere Node.js 18 o posterior. Todas las dependencias se actualizan periódicamente para garantizar la compatibilidad y la seguridad.

Herramientas disponibles

Finalización del chat de mcp_openrouter

Envía mensajes de texto o multimodales a modelos de OpenRouter:

use_mcp_tool({ server_name: "openrouter", tool_name: "mcp_openrouter_chat_completion", arguments: { model: "google/gemini-2.5-pro-exp-03-25:free", // Optional if default is set messages: [ { role: "system", content: "You are a helpful assistant." }, { role: "user", content: "What is the capital of France?" } ], temperature: 0.7 // Optional, defaults to 1.0 } });

Para mensajes multimodales con imágenes:

use_mcp_tool({ server_name: "openrouter", tool_name: "mcp_openrouter_chat_completion", arguments: { model: "anthropic/claude-3.5-sonnet", messages: [ { role: "user", content: [ { type: "text", text: "What's in this image?" }, { type: "image_url", image_url: { url: "https://example.com/image.jpg" } } ] } ] } });
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Proporciona capacidades de chat y análisis de imágenes a través del diverso ecosistema de modelos de OpenRouter.ai, lo que permite conversaciones de texto y un potente procesamiento de imágenes multimodal con varios modelos de IA.

  1. Características
    1. Novedades de la versión 1.5.0
      1. Instalación
        1. Opción 1: Instalar mediante npm
        2. Opción 2: Ejecutar a través de Docker
      2. Configuración de inicio rápido
        1. Prerrequisitos
        2. Opciones de configuración de MCP
      3. Ejemplos
        1. Dependencias
          1. Herramientas disponibles
            1. Finalización del chat de mcp\_openrouter

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            A powerful server that integrates the Moondream vision model to enable advanced image analysis, including captioning, object detection, and visual question answering, through the Model Context Protocol, compatible with AI assistants like Claude and Cline.
            Last updated -
            11
            JavaScript
            Apache 2.0
          • -
            security
            A
            license
            -
            quality
            A TypeScript-based MCP server that provides two tools for chatting with Mistral AI models, supporting both text-only conversations and image+text inputs.
            Last updated -
            JavaScript
            MIT License
            • Apple
          • A
            security
            F
            license
            A
            quality
            Enables AI assistants to interact with Figma files through the ModelContextProtocol, allowing viewing, commenting, and analyzing Figma designs directly in chat interfaces.
            Last updated -
            5
            997
            173
            TypeScript
            • Apple
          • A
            security
            A
            license
            A
            quality
            Enables AI models to interact with messages from various messaging platforms (Mobile, Mail, WhatsApp, LinkedIn, Slack, Twitter, Telegram, Instagram, Messenger) through a standardized interface.
            Last updated -
            3
            8
            Python
            MIT License
            • Linux

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/stabgan/openrouter-mcp-multimodal'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server