Skip to main content
Glama
lumishoang

OpenRouter MCP Server

by lumishoang

Servidor MCP de OpenRouter

Servidor MCP (Model Context Protocol) para descubrir y consultar más de 300 modelos de IA disponibles en OpenRouter.

Características

  • Listar modelos — Explora todos los modelos disponibles con precios, límites de contexto y capacidades

  • Buscar y filtrar — Encuentra modelos por proveedor, precio, longitud de contexto, características (herramientas, visión, etc.)

  • Comparar modelos — Comparación lado a lado de múltiples modelos

  • Obtener detalles — Metadatos completos para cualquier modelo específico

  • Respuestas en caché — Caché de 5 minutos para reducir las llamadas a la API

Instalación

pip install openrouter-mcp

Uso

Con OpenClaw

Añádelo a la configuración de servidores MCP en tu openclaw.json:

{
  "mcp": {
    "servers": {
      "openrouter-models": {
        "command": "openrouter-mcp",
        "env": {
          "OPENROUTER_API_KEY": "your-api-key"
        }
      }
    }
  }
}

Luego reinicia la puerta de enlace (gateway). Los agentes ahora pueden usar las herramientas MCP para consultar los modelos de OpenRouter.

Nota: OPENROUTER_API_KEY es opcional, pero se recomienda para obtener límites de tasa más altos (200 peticiones/minuto frente a 20 peticiones/minuto). Obtén tu clave en: https://openrouter.ai/keys

Ejemplo de uso por parte del agente:

# Agent can now call MCP tools like:
list_models(sort_by="context_length")
search_models(query="claude", max_input_price=5.0)
get_model(model_id="anthropic/claude-sonnet-4.6")
compare_models(model_ids="qwen/qwen3.6-plus,anthropic/claude-sonnet-4.6")

Independiente (stdio)

export OPENROUTER_API_KEY=your-key
python -m openrouter_mcp.server

Herramientas disponibles

Herramienta

Descripción

list_models

Lista todos los modelos con filtro de modalidad y ordenación opcionales

get_model

Obtiene información detallada de un modelo específico por ID

search_models

Busca y filtra modelos por consulta, proveedor, precio, contexto, características

compare_models

Compara múltiples modelos lado a lado

refresh_cache

Fuerza la actualización de la caché de modelos desde la API de OpenRouter

Ejemplos

Listar modelos ordenados por longitud de contexto

{
  "name": "list_models",
  "arguments": {
    "modality": "text",
    "sort_by": "context_length"
  }
}

Buscar modelos de Claude por menos de $5/1M de tokens

{
  "name": "search_models",
  "arguments": {
    "query": "claude",
    "provider": "anthropic",
    "max_input_price": 5.0,
    "requires_tools": true
  }
}

Comparar 3 modelos

{
  "name": "compare_models",
  "arguments": {
    "model_ids": "anthropic/claude-sonnet-4.6,qwen/qwen3.6-plus,openai/gpt-5.4"
  }
}

Obtener detalles del modelo

{
  "name": "get_model",
  "arguments": {
    "model_id": "anthropic/claude-sonnet-4.6"
  }
}

Referencia de la API

list_models(modality, sort_by)

  • modality (str, predeterminado: "text"): Filtrar por tipo de salida. Opciones: text, image, audio, embeddings, all

  • sort_by (str, predeterminado: "name"): Ordenar por: name, created, price, context_length

get_model(model_id)

  • model_id (str, requerido): Slug del modelo, p. ej. anthropic/claude-sonnet-4.6

search_models(query, provider, max_input_price, min_context, requires_tools, requires_vision, free_only)

  • query (str): Búsqueda de texto libre en el nombre/id/descripción del modelo

  • provider (str): Filtrar por proveedor (p. ej. anthropic, google, openai)

  • max_input_price (float): Precio máximo de entrada por 1M de tokens (0 = sin límite)

  • min_context (int): Tamaño mínimo de la ventana de contexto

  • requires_tools (bool): Solo modelos que admiten llamadas a herramientas

  • requires_vision (bool): Solo modelos con entrada de visión/imagen

  • free_only (bool): Solo modelos gratuitos

compare_models(model_ids)

  • model_ids (str, requerido): Lista de IDs de modelos separados por comas

refresh_cache()

Fuerza la actualización de la caché de modelos desde la API de OpenRouter.

Límites de tasa

  • Sin clave API: 20 peticiones/minuto

  • Con clave API: 200 peticiones/minuto

  • Los datos del modelo se almacenan en caché durante 5 minutos

Obtén tu clave API en: https://openrouter.ai/keys

Licencia

MIT

Contribución

¡Las contribuciones son bienvenidas! Por favor, abre un issue o un PR en GitHub.

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/lumishoang/openrouter-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server