Skip to main content
Glama

Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP

by niko91i

ディープシーク-思考-クロード-3.5-ソネット-CLINE-MCP

鍛冶屋のバッジ

DeepSeek R1の推論機能と、OpenRouterを介したClaude 3.5 Sonnetのレスポンス生成機能を組み合わせたModel Context Protocol(MCP)サーバー。この実装では、DeepSeekが構造化推論を提供し、それがClaudeのレスポンス生成に組み込まれるという2段階のプロセスを採用しています。

特徴

  • 2段階処理

    • 初期推論にDeepSeek R1を使用(5万文字のコンテキスト)

    • 最終回答には Claude 3.5 Sonnet を使用 (60 万文字のコンテキスト)

    • どちらのモデルもOpenRouterの統合APIを通じてアクセス可能

    • DeepSeekの推論トークンをClaudeのコンテキストに挿入する

  • スマート会話管理

    • ファイルの変更時刻を使用してアクティブな会話を検出します

    • 複数の同時会話を処理

    • 終了した会話を自動的にフィルタリングします

    • 必要に応じてコンテキストのクリアをサポート

  • 最適化されたパラメータ:

    • モデル固有のコンテキスト制限:

      • DeepSeek: 集中的な推論のための50,000文字

      • クロード:包括的な回答には60万文字

    • 推奨設定:

      • 温度:バランスのとれた創造性のための0.7

      • top_p: 完全な確率分布の場合は1.0

      • repetition_penalty: 繰り返しを防ぐには 1.0

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop に DeepSeek Thinking with Claude 3.5 Sonnet を自動的にインストールするには:

npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude

手動インストール

  1. リポジトリをクローンします。

git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
  1. 依存関係をインストールします:

npm install
  1. OpenRouter API キーを使用して.envファイルを作成します。

# Required: OpenRouter API key for both DeepSeek and Claude models OPENROUTER_API_KEY=your_openrouter_api_key_here # Optional: Model configuration (defaults shown below) DEEPSEEK_MODEL=deepseek/deepseek-r1 # DeepSeek model for reasoning CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta # Claude model for responses
  1. サーバーを構築します。

npm run build

Cline での使用

Cline MCP 設定に追加します (通常は~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.jsonにあります)。

{ "mcpServers": { "deepseek-claude": { "command": "/path/to/node", "args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"], "env": { "OPENROUTER_API_KEY": "your_key_here" }, "disabled": false, "autoApprove": [] } } }

ツールの使用

サーバーは、応答を生成および監視するための 2 つのツールを提供します。

レスポンスを生成する

次のパラメータを使用して応答を生成するためのメイン ツール:

{ "prompt": string, // Required: The question or prompt "showReasoning"?: boolean, // Optional: Show DeepSeek's reasoning process "clearContext"?: boolean, // Optional: Clear conversation history "includeHistory"?: boolean // Optional: Include Cline conversation history }

応答ステータスの確認

応答生成タスクのステータスを確認するためのツール:

{ "taskId": string // Required: The task ID from generate_response }

回答投票

サーバーは、長時間実行されるリクエストを処理するためにポーリング メカニズムを使用します。

  1. 最初のリクエスト:

    • generate_responseタスクIDとともに直ちに返されます

    • 応答形式: {"taskId": "uuid-here"}

  2. ステータスの確認:

    • check_response_statusを使用してタスクのステータスをポーリングします

    • **注:**回答には最大 60 秒かかる場合があります

    • ステータスは、保留中 → 推論中 → 応答中 → 完了の順に進行します。

Cline での使用例:

// Initial request const result = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "generate_response", arguments: { prompt: "What is quantum computing?", showReasoning: true } }); // Get taskId from result const taskId = JSON.parse(result.content[0].text).taskId; // Poll for status (may need multiple checks over ~60 seconds) const status = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "check_response_status", arguments: { taskId } }); // Example status response when complete: { "status": "complete", "reasoning": "...", // If showReasoning was true "response": "..." // The final response }

発達

自動リビルドを使用した開発の場合:

npm run watch

仕組み

  1. 推論段階(DeepSeek R1)

    • OpenRouterの推論トークン機能を使用する

    • プロンプトは推論をキャプチャしながら「完了」を出力するように変更されました

    • 回答メタデータから推論が抽出される

  2. 応答段階(クロード3.5ソネット)

    • 元のプロンプトとDeepSeekの推論を受け取る

    • 推論を組み込んだ最終的な回答を生成する

    • 会話のコンテキストと履歴を維持する

ライセンス

MIT ライセンス - 詳細については LICENSE ファイルを参照してください。

クレジット

構造化推論と知識検索を通じて AI 応答を強化するSkiranoの RAT (検索拡張思考) コンセプトに基づいています。

この実装では、OpenRouter の統合 API を介して、DeepSeek R1 の推論機能と Claude 3.5 Sonnet の応答生成を具体的に組み合わせています。

Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    A comprehensive suite of Model Context Protocol servers designed to extend AI agent Claude's capabilities with integrations for knowledge management, reasoning, advanced search, news access, and workspace tools.
    Last updated -
    5
    • Apple
  • A
    security
    A
    license
    A
    quality
    Facilitates two-stage reasoning processes using DeepSeek for detailed analysis and supports multiple response models such as Claude 3.5 Sonnet and OpenRouter, maintaining conversation context and enhancing AI-driven interactions.
    Last updated -
    109
    MIT License
  • A
    security
    A
    license
    A
    quality
    A Node.js/TypeScript implementation of a Model Context Protocol server for the Deepseek R1 language model, optimized for reasoning tasks with a large context window and fully integrated with Claude Desktop.
    Last updated -
    68
    MIT License
    • Apple
    • Linux
  • A
    security
    A
    license
    A
    quality
    A server that enhances Claude's reasoning capabilities by integrating DeepSeek R1's advanced reasoning engine to tackle complex reasoning tasks.
    Last updated -
    1
    1
    MIT License
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/niko91i/MCP-deepseek-V3-et-claude-desktop'

If you have feedback or need assistance with the MCP directory API, please join our Discord server