Skip to main content
Glama

Qwen Max MCP Server

Qwen Max MCP 服务器

Qwen Max 语言模型的模型上下文协议 (MCP) 服务器实现。

为什么选择 Node.js?此实现使用 Node.js/TypeScript,因为与 Python 等其他语言相比,它目前能够提供与 MCP 服务器最稳定、最可靠的集成。适用于 MCP 的 Node.js SDK 提供了更好的类型安全性、错误处理能力以及与 Claude Desktop 的兼容性。

先决条件

  • Node.js(v18 或更高版本)
  • npm
  • 克劳德桌面
  • Dashscope API 密钥

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 Qwen Max MCP 服务器:

npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude

手动安装

git clone https://github.com/66julienmartin/mcp-server-qwen-max.git cd Qwen_Max npm install

模型选择

默认情况下,此服务器使用 Qwen-Max 型号。Qwen 系列提供多种具有不同功能的商业型号:

奎恩·马克斯

提供最佳的推理性能,特别是对于复杂和多步骤的任务。

上下文窗口:32,768 个 token

  • 最大输入:30,720 个代币
  • 最大输出:8,192 个代币
  • 定价:$0.0016/1K 代币(输入),$0.0064/1K 代币(输出)
  • 免费额度:100万枚代币

可用版本:

  • qwen-max(稳定版)
  • qwen-max-latest(最新)
  • qwen-max-2025-01-25(快照,也称为 qwen-max-0125 或 Qwen2.5-Max)

Qwen-Plus

性能、速度和成本的平衡组合,非常适合中等复杂的任务。

上下文窗口:131,072 个 token

  • 最大输入:129,024 个 token
  • 最大输出:8,192 个代币
  • 定价:$0.0004/1K 代币(输入),$0.0012/1K 代币(输出)
  • 免费额度:100万枚代币

可用版本:

  • qwen-plus(稳定版)
  • qwen-plus-latest(最新)
  • qwen-plus-2025-01-25(快照,也称为 qwen-plus-0125)

Qwen-Turbo

速度快,成本低,适合简单任务。

  • 上下文窗口:1,000,000 个令牌
  • 最大输入:1,000,000 个代币
  • 最大输出:8,192 个代币
  • 定价:$0.00005/1K 代币(输入),$0.0002/1K 代币(输出)
  • 免费额度:100万枚代币

可用版本:

  • qwen-turbo(稳定版)
  • qwen-turbo-latest(最新)
  • qwen-turbo-2024-11-01(快照,也称为 qwen-turbo-1101)

要修改模型,请在 src/index.ts 中更新模型名称:

// For Qwen-Max (default) model: "qwen-max" // For Qwen-Plus model: "qwen-plus" // For Qwen-Turbo model: "qwen-turbo"

有关可用模型的更多详细信息,请访问阿里云模型文档https://www.alibabacloud.com/help/en/model-studio/getting-started/models?spm=a3c0i.23458820.2359477120.1.446c7d3f9LT0FY

项目结构

qwen-max-mcp/ ├── src/ │ ├── index.ts # Main server implementation ├── build/ # Compiled files │ ├── index.js ├── LICENSE ├── README.md ├── package.json ├── package-lock.json └── tsconfig.json

配置

  1. 在项目根目录中创建一个.env文件:
DASHSCOPE_API_KEY=your-api-key-here
  1. 更新 Claude Desktop 配置:
{ "mcpServers": { "qwen_max": { "command": "node", "args": ["/path/to/Qwen_Max/build/index.js"], "env": { "DASHSCOPE_API_KEY": "your-api-key-here" } } } }

发展

npm run dev # Watch mode npm run build # Build npm run start # Start server

特征

  • 使用 Qwen 模型生成文本
  • 可配置参数(max_tokens、温度)
  • 错误处理
  • MCP 协议支持
  • Claude 桌面集成
  • 支持所有 Qwen 商用型号(Max、Plus、Turbo)
  • 广泛的令牌上下文窗口

API 使用

// Example tool call { "name": "qwen_max", "arguments": { "prompt": "Your prompt here", "max_tokens": 8192, "temperature": 0.7 } }

温度参数

温度参数控制模型输出的随机性:

较低值(0.0-0.7):输出更具针对性和确定性 较高值(0.7-1.0):输出更具创造性和多样性

根据任务推荐的温度设置:

代码生成:0.0-0.3 技术写作:0.3-0.5 一般任务:0.7(默认) 创意写作:0.8-1.0

错误处理

服务器提供了常见问题的详细错误消息:

API 身份验证错误 无效参数 速率限制 网络问题 超出令牌限制 模型可用性问题

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

执照

麻省理工学院

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

使用具有可配置参数的 Qwen Max 语言模型实现文本生成,并通过模型上下文协议 (MCP) 与 Claude Desktop 无缝集成。

  1. 先决条件
    1. 安装
      1. 通过 Smithery 安装
      2. 手动安装
    2. 模型选择
      1. 奎恩·马克斯
      2. Qwen-Plus
      3. Qwen-Turbo
    3. 项目结构
      1. 配置
        1. 发展
          1. 特征
            1. API 使用
              1. 温度参数
                1. 错误处理
                  1. 贡献
                    1. 执照

                      Related MCP Servers

                      • A
                        security
                        F
                        license
                        A
                        quality
                        Facilitates direct speech generation using Claude for multiple languages and emotions, integrating with a Zonos TTS setup via the Model Context Protocol.
                        Last updated -
                        1
                        9
                        TypeScript
                        • Linux
                      • -
                        security
                        F
                        license
                        -
                        quality
                        Provides text-to-speech capabilities through the Model Context Protocol, allowing applications to easily integrate speech synthesis with customizable voices, adjustable speech speed, and cross-platform audio playback support.
                        Last updated -
                        2
                        Python
                      • -
                        security
                        F
                        license
                        -
                        quality
                        A Model Context Protocol server implementation that provides a standardized interface for interacting with Spiral's language models, offering tools to generate text from prompts, files, or web URLs.
                        Last updated -
                        14
                        Python
                        • Linux
                        • Apple
                      • A
                        security
                        F
                        license
                        A
                        quality
                        A TypeScript-based Model Context Protocol server that enables large language models to directly invoke Alibaba Cloud's Tongyi Wanxiang text-to-image generation API.
                        Last updated -
                        4
                        44
                        3
                        TypeScript

                      View all related MCP servers

                      MCP directory API

                      We provide all the information about MCP servers via our MCP API.

                      curl -X GET 'https://glama.ai/api/mcp/v1/servers/66julienmartin/MCP-server-Qwen_Max'

                      If you have feedback or need assistance with the MCP directory API, please join our Discord server