Skip to main content
Glama

Qwen Max MCP サーバー

Qwen Max 言語モデル用のモデル コンテキスト プロトコル (MCP) サーバー実装。

鍛冶屋のバッジ

なぜNode.jsなのか?この実装ではNode.js/TypeScriptを使用しています。これは、Pythonなどの他の言語と比較して、MCPサーバーとの統合において現状最も安定的で信頼性の高いソリューションを提供しているためです。MCP向けNode.js SDKは、より優れた型安全性、エラー処理、そしてClaude Desktopとの互換性を提供します。

前提条件

  • Node.js (v18以上)

  • npm

  • クロードデスクトップ

  • Dashscope APIキー

Related MCP server: TTS-MCP

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Qwen Max MCP Server を自動的にインストールするには:

npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude

手動インストール

git clone https://github.com/66julienmartin/mcp-server-qwen-max.git cd Qwen_Max npm install

モデル選択

このサーバーはデフォルトでQwen-Maxモデルを使用します。Qwenシリーズには、機能の異なる複数の商用モデルが用意されています。

クウェン・マックス

特に複雑で複数のステップから成るタスクに対して、最高の推論パフォーマンスを提供します。

コンテキストウィンドウ: 32,768 トークン

  • 最大入力: 30,720トークン

  • 最大出力: 8,192トークン

  • 価格: $0.0016/1Kトークン (入力)、$0.0064/1Kトークン (出力)

  • 無料割り当て: 100万トークン

利用可能なバージョン:

  • qwen-max (安定版)

  • qwen-max-latest (最新)

  • qwen-max-2025-01-25 (スナップショット、qwen-max-0125 または Qwen2.5-Max とも呼ばれます)

クウェンプラス

パフォーマンス、速度、コストのバランスの取れた組み合わせで、中程度に複雑なタスクに最適です。

コンテキストウィンドウ: 131,072 トークン

  • 最大入力: 129,024トークン

  • 最大出力: 8,192トークン

  • 価格: $0.0004/1Kトークン (入力)、$0.0012/1Kトークン (出力)

  • 無料割り当て: 100万トークン

利用可能なバージョン:

  • qwen-plus(安定版)

  • qwen-plus-latest(最新)

  • qwen-plus-2025-01-25 (スナップショット、qwen-plus-0125 とも呼ばれる)

クウェン・ターボ

高速かつ低コストで、単純なタスクに適しています。

  • コンテキストウィンドウ: 1,000,000トークン

  • 最大入力: 1,000,000トークン

  • 最大出力: 8,192トークン

  • 価格: $0.00005/1Kトークン (入力)、$0.0002/1Kトークン (出力)

  • 無料割り当て: 100万トークン

利用可能なバージョン:

  • qwen-turbo (安定版)

  • qwen-turbo-latest (最新)

  • qwen-turbo-2024-11-01 (スナップショット、別名 qwen-turbo-1101)

モデルを変更するには、src/index.ts 内のモデル名を更新します。

// For Qwen-Max (default) model: "qwen-max" // For Qwen-Plus model: "qwen-plus" // For Qwen-Turbo model: "qwen-turbo"

利用可能なモデルの詳細については、Alibaba Cloud モデルドキュメント(https://www.alibabacloud.com/help/en/model-studio/getting-started/models?spm=a3c0i.23458820.2359477120.1.446c7d3f9LT0FY ) をご覧ください。

プロジェクト構造

qwen-max-mcp/ ├── src/ │ ├── index.ts # Main server implementation ├── build/ # Compiled files │ ├── index.js ├── LICENSE ├── README.md ├── package.json ├── package-lock.json └── tsconfig.json

構成

  1. プロジェクト ルートに.envファイルを作成します。

DASHSCOPE_API_KEY=your-api-key-here
  1. Claude Desktop の構成を更新します。

{ "mcpServers": { "qwen_max": { "command": "node", "args": ["/path/to/Qwen_Max/build/index.js"], "env": { "DASHSCOPE_API_KEY": "your-api-key-here" } } } }

発達

npm run dev # Watch mode npm run build # Build npm run start # Start server

特徴

  • Qwenモデルによるテキスト生成

  • 設定可能なパラメータ(max_tokens、温度)

  • エラー処理

  • MCPプロトコルのサポート

  • クロードデスクトップ統合

  • すべてのQwen商用モデル(Max、Plus、Turbo)のサポート

  • 広範なトークンコンテキストウィンドウ

APIの使用

// Example tool call { "name": "qwen_max", "arguments": { "prompt": "Your prompt here", "max_tokens": 8192, "temperature": 0.7 } }

温度パラメータ

温度パラメータはモデルの出力のランダム性を制御します。

低い値(0.0~0.7):より焦点が絞られ、決定論的な出力 高い値(0.7~1.0):より創造的で多様な出力

タスク別の推奨温度設定:

コード生成: 0.0-0.3 テクニカルライティング: 0.3-0.5 一般タスク: 0.7 (デフォルト) クリエイティブライティング: 0.8-1.0

エラー処理

サーバーは、一般的な問題に関する詳細なエラー メッセージを提供します。

API認証エラー 無効なパラメータ レート制限 ネットワークの問題 トークン制限超過 モデルの可用性の問題

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

ライセンス

マサチューセッツ工科大学

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/66julienmartin/MCP-server-Qwen_Max'

If you have feedback or need assistance with the MCP directory API, please join our Discord server