Skip to main content
Glama
66julienmartin

Qwen Max MCP Server

Qwen Max MCP サーバー

Qwen Max 言語モデル用のモデル コンテキスト プロトコル (MCP) サーバー実装。

鍛冶屋のバッジ

なぜNode.jsなのか?この実装ではNode.js/TypeScriptを使用しています。これは、Pythonなどの他の言語と比較して、MCPサーバーとの統合において現状最も安定的で信頼性の高いソリューションを提供しているためです。MCP向けNode.js SDKは、より優れた型安全性、エラー処理、そしてClaude Desktopとの互換性を提供します。

前提条件

  • Node.js (v18以上)

  • npm

  • クロードデスクトップ

  • Dashscope APIキー

Related MCP server: TTS-MCP

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Qwen Max MCP Server を自動的にインストールするには:

npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude

手動インストール

git clone https://github.com/66julienmartin/mcp-server-qwen-max.git
cd Qwen_Max
npm install

モデル選択

このサーバーはデフォルトでQwen-Maxモデルを使用します。Qwenシリーズには、機能の異なる複数の商用モデルが用意されています。

クウェン・マックス

特に複雑で複数のステップから成るタスクに対して、最高の推論パフォーマンスを提供します。

コンテキストウィンドウ: 32,768 トークン

  • 最大入力: 30,720トークン

  • 最大出力: 8,192トークン

  • 価格: $0.0016/1Kトークン (入力)、$0.0064/1Kトークン (出力)

  • 無料割り当て: 100万トークン

利用可能なバージョン:

  • qwen-max (安定版)

  • qwen-max-latest (最新)

  • qwen-max-2025-01-25 (スナップショット、qwen-max-0125 または Qwen2.5-Max とも呼ばれます)

クウェンプラス

パフォーマンス、速度、コストのバランスの取れた組み合わせで、中程度に複雑なタスクに最適です。

コンテキストウィンドウ: 131,072 トークン

  • 最大入力: 129,024トークン

  • 最大出力: 8,192トークン

  • 価格: $0.0004/1Kトークン (入力)、$0.0012/1Kトークン (出力)

  • 無料割り当て: 100万トークン

利用可能なバージョン:

  • qwen-plus(安定版)

  • qwen-plus-latest(最新)

  • qwen-plus-2025-01-25 (スナップショット、qwen-plus-0125 とも呼ばれる)

クウェン・ターボ

高速かつ低コストで、単純なタスクに適しています。

  • コンテキストウィンドウ: 1,000,000トークン

  • 最大入力: 1,000,000トークン

  • 最大出力: 8,192トークン

  • 価格: $0.00005/1Kトークン (入力)、$0.0002/1Kトークン (出力)

  • 無料割り当て: 100万トークン

利用可能なバージョン:

  • qwen-turbo (安定版)

  • qwen-turbo-latest (最新)

  • qwen-turbo-2024-11-01 (スナップショット、別名 qwen-turbo-1101)

モデルを変更するには、src/index.ts 内のモデル名を更新します。

// For Qwen-Max (default)
model: "qwen-max"

// For Qwen-Plus
model: "qwen-plus"

// For Qwen-Turbo
model: "qwen-turbo"

利用可能なモデルの詳細については、Alibaba Cloud モデルドキュメント(https://www.alibabacloud.com/help/en/model-studio/getting-started/models?spm=a3c0i.23458820.2359477120.1.446c7d3f9LT0FY ) をご覧ください。

プロジェクト構造

qwen-max-mcp/
├── src/
│   ├── index.ts             # Main server implementation
├── build/                   # Compiled files
│   ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json

構成

  1. プロジェクト ルートに.envファイルを作成します。

DASHSCOPE_API_KEY=your-api-key-here
  1. Claude Desktop の構成を更新します。

{
  "mcpServers": {
    "qwen_max": {
      "command": "node",
      "args": ["/path/to/Qwen_Max/build/index.js"],
      "env": {
        "DASHSCOPE_API_KEY": "your-api-key-here"
      }
    }
  }
}

発達

npm run dev     # Watch mode
npm run build   # Build
npm run start   # Start server

特徴

  • Qwenモデルによるテキスト生成

  • 設定可能なパラメータ(max_tokens、温度)

  • エラー処理

  • MCPプロトコルのサポート

  • クロードデスクトップ統合

  • すべてのQwen商用モデル(Max、Plus、Turbo)のサポート

  • 広範なトークンコンテキストウィンドウ

APIの使用

// Example tool call
{
  "name": "qwen_max",
  "arguments": {
    "prompt": "Your prompt here",
    "max_tokens": 8192,
    "temperature": 0.7
  }
}

温度パラメータ

温度パラメータはモデルの出力のランダム性を制御します。

低い値(0.0~0.7):より焦点が絞られ、決定論的な出力 高い値(0.7~1.0):より創造的で多様な出力

タスク別の推奨温度設定:

コード生成: 0.0-0.3 テクニカルライティング: 0.3-0.5 一般タスク: 0.7 (デフォルト) クリエイティブライティング: 0.8-1.0

エラー処理

サーバーは、一般的な問題に関する詳細なエラー メッセージを提供します。

API認証エラー 無効なパラメータ レート制限 ネットワークの問題 トークン制限超過 モデルの可用性の問題

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

ライセンス

マサチューセッツ工科大学

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/66julienmartin/MCP-server-Qwen_Max'

If you have feedback or need assistance with the MCP directory API, please join our Discord server