Qwen Max MCP Server

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Provides access to Alibaba Cloud's Qwen family of language models (Max, Plus, Turbo) through the Dashscope API, allowing text generation with configurable parameters and support for large context windows up to 1 million tokens.

Qwen Max MCP 服务器

Qwen Max 语言模型的模型上下文协议 (MCP) 服务器实现。

为什么选择 Node.js?此实现使用 Node.js/TypeScript,因为与 Python 等其他语言相比,它目前能够提供与 MCP 服务器最稳定、最可靠的集成。适用于 MCP 的 Node.js SDK 提供了更好的类型安全性、错误处理能力以及与 Claude Desktop 的兼容性。

先决条件

  • Node.js(v18 或更高版本)
  • npm
  • 克劳德桌面
  • Dashscope API 密钥

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 Qwen Max MCP 服务器:

npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude

手动安装

git clone https://github.com/66julienmartin/mcp-server-qwen-max.git cd Qwen_Max npm install

模型选择

默认情况下,此服务器使用 Qwen-Max 型号。Qwen 系列提供多种具有不同功能的商业型号:

奎恩·马克斯

提供最佳的推理性能,特别是对于复杂和多步骤的任务。

上下文窗口:32,768 个 token

  • 最大输入:30,720 个代币
  • 最大输出:8,192 个代币
  • 定价:$0.0016/1K 代币(输入),$0.0064/1K 代币(输出)
  • 免费额度:100万枚代币

可用版本:

  • qwen-max(稳定版)
  • qwen-max-latest(最新)
  • qwen-max-2025-01-25(快照,也称为 qwen-max-0125 或 Qwen2.5-Max)

Qwen-Plus

性能、速度和成本的平衡组合,非常适合中等复杂的任务。

上下文窗口:131,072 个 token

  • 最大输入:129,024 个 token
  • 最大输出:8,192 个代币
  • 定价:$0.0004/1K 代币(输入),$0.0012/1K 代币(输出)
  • 免费额度:100万枚代币

可用版本:

  • qwen-plus(稳定版)
  • qwen-plus-latest(最新)
  • qwen-plus-2025-01-25(快照,也称为 qwen-plus-0125)

Qwen-Turbo

速度快,成本低,适合简单任务。

  • 上下文窗口:1,000,000 个令牌
  • 最大输入:1,000,000 个代币
  • 最大输出:8,192 个代币
  • 定价:$0.00005/1K 代币(输入),$0.0002/1K 代币(输出)
  • 免费额度:100万枚代币

可用版本:

  • qwen-turbo(稳定版)
  • qwen-turbo-latest(最新)
  • qwen-turbo-2024-11-01(快照,也称为 qwen-turbo-1101)

要修改模型,请在 src/index.ts 中更新模型名称:

// For Qwen-Max (default) model: "qwen-max" // For Qwen-Plus model: "qwen-plus" // For Qwen-Turbo model: "qwen-turbo"

有关可用模型的更多详细信息,请访问阿里云模型文档https://www.alibabacloud.com/help/en/model-studio/getting-started/models?spm=a3c0i.23458820.2359477120.1.446c7d3f9LT0FY

项目结构

qwen-max-mcp/ ├── src/ │ ├── index.ts # Main server implementation ├── build/ # Compiled files │ ├── index.js ├── LICENSE ├── README.md ├── package.json ├── package-lock.json └── tsconfig.json

配置

  1. 在项目根目录中创建一个.env文件:
DASHSCOPE_API_KEY=your-api-key-here
  1. 更新 Claude Desktop 配置:
{ "mcpServers": { "qwen_max": { "command": "node", "args": ["/path/to/Qwen_Max/build/index.js"], "env": { "DASHSCOPE_API_KEY": "your-api-key-here" } } } }

发展

npm run dev # Watch mode npm run build # Build npm run start # Start server

特征

  • 使用 Qwen 模型生成文本
  • 可配置参数(max_tokens、温度)
  • 错误处理
  • MCP 协议支持
  • Claude 桌面集成
  • 支持所有 Qwen 商用型号(Max、Plus、Turbo)
  • 广泛的令牌上下文窗口

API 使用

// Example tool call { "name": "qwen_max", "arguments": { "prompt": "Your prompt here", "max_tokens": 8192, "temperature": 0.7 } }

温度参数

温度参数控制模型输出的随机性:

较低值(0.0-0.7):输出更具针对性和确定性 较高值(0.7-1.0):输出更具创造性和多样性

根据任务推荐的温度设置:

代码生成:0.0-0.3 技术写作:0.3-0.5 一般任务:0.7(默认) 创意写作:0.8-1.0

错误处理

服务器提供了常见问题的详细错误消息:

API 身份验证错误 无效参数 速率限制 网络问题 超出令牌限制 模型可用性问题

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

执照

麻省理工学院

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

使用具有可配置参数的 Qwen Max 语言模型实现文本生成,并通过模型上下文协议 (MCP) 与 Claude Desktop 无缝集成。

  1. Prerequisites
    1. Installation
      1. Installing via Smithery
      2. Manual Installation
    2. Model Selection
      1. Qwen-Max
      2. Qwen-Plus
      3. Qwen-Turbo
    3. Project Structure
      1. Configuration
        1. Development
          1. Features
            1. API Usage
              1. The Temperature Parameter
                1. Error Handling
                  1. Contributing
                    1. License
                      ID: 1v7po9oa9w