Skip to main content
Glama

Qwen Max MCP Server

Servidor MCP Qwen Max

Una implementación de servidor de Protocolo de Contexto de Modelo (MCP) para el modelo de lenguaje Qwen Max.

¿Por qué Node.js? Esta implementación utiliza Node.js/TypeScript, ya que actualmente ofrece la integración más estable y fiable con servidores MCP en comparación con otros lenguajes como Python. El SDK de Node.js para MCP ofrece mayor seguridad de tipos, gestión de errores y compatibilidad con Claude Desktop.

Prerrequisitos

  • Node.js (v18 o superior)
  • npm
  • Escritorio de Claude
  • Clave API de Dashscope

Instalación

Instalación mediante herrería

Para instalar Qwen Max MCP Server para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude

Instalación manual

git clone https://github.com/66julienmartin/mcp-server-qwen-max.git cd Qwen_Max npm install

Selección de modelos

Este servidor utiliza el modelo Qwen-Max de forma predeterminada. La serie Qwen ofrece varios modelos comerciales con diferentes capacidades:

Qwen-Max

Proporciona el mejor rendimiento de inferencia, especialmente para tareas complejas y de varios pasos.

Ventana de contexto: 32.768 tokens

  • Entrada máxima: 30,720 tokens
  • Salida máxima: 8,192 tokens
  • Precios: $0,0016/1000 tokens (entrada), $0,0064/1000 tokens (salida)
  • Cuota gratuita: 1 millón de tokens

Versiones disponibles:

  • qwen-max (Estable)
  • qwen-max-latest (Último)
  • qwen-max-2025-01-25 (Instantánea, también conocida como qwen-max-0125 o Qwen2.5-Max)

Qwen-Plus

Combinación equilibrada de rendimiento, velocidad y costo, ideal para tareas moderadamente complejas.

Ventana de contexto: 131.072 tokens

  • Entrada máxima: 129,024 tokens
  • Salida máxima: 8,192 tokens
  • Precios: $0,0004/1000 tokens (entrada), $0,0012/1000 tokens (salida)
  • Cuota gratuita: 1 millón de tokens

Versiones disponibles:

  • qwen-plus (Estable)
  • qwen-plus-latest (Último)
  • qwen-plus-2025-01-25 (Instantánea, también conocida como qwen-plus-0125)

Qwen-Turbo

Rápida velocidad y bajo costo, adecuado para tareas sencillas.

  • Ventana de contexto: 1.000.000 tokens
  • Entrada máxima: 1.000.000 tokens
  • Salida máxima: 8,192 tokens
  • Precios: $0,00005/1000 tokens (entrada), $0,0002/1000 tokens (salida)
  • Cuota gratuita: 1 millón de tokens

Versiones disponibles:

  • qwen-turbo (Estable)
  • qwen-turbo-latest (Último)
  • qwen-turbo-2024-11-01 (Instantánea, también conocida como qwen-turbo-1101)

Para modificar el modelo, actualice el nombre del modelo en src/index.ts:

// For Qwen-Max (default) model: "qwen-max" // For Qwen-Plus model: "qwen-plus" // For Qwen-Turbo model: "qwen-turbo"

Para obtener información más detallada sobre los modelos disponibles, visita la Documentación del modelo de Alibaba Cloud https://www.alibabacloud.com/help/en/model-studio/getting-started/models?spm=a3c0i.23458820.2359477120.1.446c7d3f9LT0FY .

Estructura del proyecto

qwen-max-mcp/ ├── src/ │ ├── index.ts # Main server implementation ├── build/ # Compiled files │ ├── index.js ├── LICENSE ├── README.md ├── package.json ├── package-lock.json └── tsconfig.json

Configuración

  1. Cree un archivo .env en la raíz del proyecto:
DASHSCOPE_API_KEY=your-api-key-here
  1. Actualizar la configuración de Claude Desktop:
{ "mcpServers": { "qwen_max": { "command": "node", "args": ["/path/to/Qwen_Max/build/index.js"], "env": { "DASHSCOPE_API_KEY": "your-api-key-here" } } } }

Desarrollo

npm run dev # Watch mode npm run build # Build npm run start # Start server

Características

  • Generación de texto con modelos Qwen
  • Parámetros configurables (max_tokens, temperatura)
  • Manejo de errores
  • Compatibilidad con el protocolo MCP
  • Integración de Claude Desktop
  • Soporte para todos los modelos comerciales de Qwen (Max, Plus, Turbo)
  • Amplias ventanas de contexto de token

Uso de la API

// Example tool call { "name": "qwen_max", "arguments": { "prompt": "Your prompt here", "max_tokens": 8192, "temperature": 0.7 } }

El parámetro de temperatura

El parámetro de temperatura controla la aleatoriedad de la salida del modelo:

Valores más bajos (0,0-0,7): Resultados más centrados y deterministas. Valores más altos (0,7-1,0): Resultados más creativos y variados.

Configuraciones de temperatura recomendadas por tarea:

Generación de código: 0,0-0,3 Redacción técnica: 0,3-0,5 Tareas generales: 0,7 (predeterminado) Redacción creativa: 0,8-1,0

Manejo de errores

El servidor proporciona mensajes de error detallados para problemas comunes:

Errores de autenticación de API Parámetros no válidos Limitación de velocidad Problemas de red Límite de token excedido Problemas de disponibilidad del modelo

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

Licencia

Instituto Tecnológico de Massachusetts (MIT)

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Permite la generación de texto utilizando el modelo de lenguaje Qwen Max con parámetros configurables e integración perfecta con Claude Desktop a través del Protocolo de Contexto de Modelo (MCP).

  1. Prerrequisitos
    1. Instalación
      1. Instalación mediante herrería
      2. Instalación manual
    2. Selección de modelos
      1. Qwen-Max
      2. Qwen-Plus
      3. Qwen-Turbo
    3. Estructura del proyecto
      1. Configuración
        1. Desarrollo
          1. Características
            1. Uso de la API
              1. El parámetro de temperatura
                1. Manejo de errores
                  1. Contribuyendo
                    1. Licencia

                      Related MCP Servers

                      • A
                        security
                        F
                        license
                        A
                        quality
                        Facilitates direct speech generation using Claude for multiple languages and emotions, integrating with a Zonos TTS setup via the Model Context Protocol.
                        Last updated -
                        1
                        9
                        TypeScript
                        • Linux
                      • -
                        security
                        F
                        license
                        -
                        quality
                        Provides text-to-speech capabilities through the Model Context Protocol, allowing applications to easily integrate speech synthesis with customizable voices, adjustable speech speed, and cross-platform audio playback support.
                        Last updated -
                        2
                        Python
                      • -
                        security
                        F
                        license
                        -
                        quality
                        A Model Context Protocol server implementation that provides a standardized interface for interacting with Spiral's language models, offering tools to generate text from prompts, files, or web URLs.
                        Last updated -
                        14
                        Python
                        • Linux
                        • Apple
                      • A
                        security
                        F
                        license
                        A
                        quality
                        A TypeScript-based Model Context Protocol server that enables large language models to directly invoke Alibaba Cloud's Tongyi Wanxiang text-to-image generation API.
                        Last updated -
                        4
                        44
                        3
                        TypeScript

                      View all related MCP servers

                      MCP directory API

                      We provide all the information about MCP servers via our MCP API.

                      curl -X GET 'https://glama.ai/api/mcp/v1/servers/66julienmartin/MCP-server-Qwen_Max'

                      If you have feedback or need assistance with the MCP directory API, please join our Discord server