Skip to main content
Glama

RAT MCP Server

by newideas99

ディープシーク-思考-クロード-3.5-ソネット-CLINE-MCP

DeepSeek R1の推論機能と、OpenRouterを介したClaude 3.5 Sonnetのレスポンス生成機能を組み合わせたModel Context Protocol(MCP)サーバー。この実装では、DeepSeekが構造化推論を提供し、それがClaudeのレスポンス生成に組み込まれるという2段階のプロセスを採用しています。

特徴

  • 2段階処理
    • 初期推論にDeepSeek R1を使用(5万文字のコンテキスト)
    • 最終回答には Claude 3.5 Sonnet を使用 (60 万文字のコンテキスト)
    • どちらのモデルもOpenRouterの統合APIを通じてアクセス可能
    • DeepSeekの推論トークンをClaudeのコンテキストに挿入する
  • スマート会話管理
    • ファイルの変更時刻を使用してアクティブな会話を検出します
    • 複数の同時会話を処理
    • 終了した会話を自動的にフィルタリングします
    • 必要に応じてコンテキストのクリアをサポート
  • 最適化されたパラメータ:
    • モデル固有のコンテキスト制限:
      • DeepSeek: 集中的な推論のための50,000文字
      • クロード:包括的な回答には60万文字
    • 推奨設定:
      • 温度:バランスのとれた創造性のための0.7
      • top_p: 完全な確率分布の場合は1.0
      • repetition_penalty: 繰り返しを防ぐには 1.0

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop に DeepSeek Thinking with Claude 3.5 Sonnet を自動的にインストールするには:

npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude

手動インストール

  1. リポジトリをクローンします。
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
  1. 依存関係をインストールします:
npm install
  1. OpenRouter API キーを使用して.envファイルを作成します。
# Required: OpenRouter API key for both DeepSeek and Claude models OPENROUTER_API_KEY=your_openrouter_api_key_here # Optional: Model configuration (defaults shown below) DEEPSEEK_MODEL=deepseek/deepseek-r1 # DeepSeek model for reasoning CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta # Claude model for responses
  1. サーバーを構築します。
npm run build

Cline での使用

Cline MCP 設定に追加します (通常は~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.jsonにあります)。

{ "mcpServers": { "deepseek-claude": { "command": "/path/to/node", "args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"], "env": { "OPENROUTER_API_KEY": "your_key_here" }, "disabled": false, "autoApprove": [] } } }

ツールの使用

サーバーは、応答を生成および監視するための 2 つのツールを提供します。

レスポンスを生成する

次のパラメータを使用して応答を生成するためのメイン ツール:

{ "prompt": string, // Required: The question or prompt "showReasoning"?: boolean, // Optional: Show DeepSeek's reasoning process "clearContext"?: boolean, // Optional: Clear conversation history "includeHistory"?: boolean // Optional: Include Cline conversation history }

応答ステータスの確認

応答生成タスクのステータスを確認するためのツール:

{ "taskId": string // Required: The task ID from generate_response }

回答投票

サーバーは、長時間実行されるリクエストを処理するためにポーリング メカニズムを使用します。

  1. 最初のリクエスト:
    • generate_responseタスクIDとともに直ちに返されます
    • 応答形式: {"taskId": "uuid-here"}
  2. ステータスの確認:
    • check_response_statusを使用してタスクのステータスをポーリングします
    • **注:**回答には最大 60 秒かかる場合があります
    • ステータスは、保留中 → 推論中 → 応答中 → 完了の順に進行します。

Cline での使用例:

// Initial request const result = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "generate_response", arguments: { prompt: "What is quantum computing?", showReasoning: true } }); // Get taskId from result const taskId = JSON.parse(result.content[0].text).taskId; // Poll for status (may need multiple checks over ~60 seconds) const status = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "check_response_status", arguments: { taskId } }); // Example status response when complete: { "status": "complete", "reasoning": "...", // If showReasoning was true "response": "..." // The final response }

発達

自動リビルドを使用した開発の場合:

npm run watch

仕組み

  1. 推論段階(DeepSeek R1)
    • OpenRouterの推論トークン機能を使用する
    • プロンプトは推論をキャプチャしながら「完了」を出力するように変更されました
    • 回答メタデータから推論が抽出される
  2. 応答段階(クロード3.5ソネット)
    • 元のプロンプトとDeepSeekの推論を受け取る
    • 推論を組み込んだ最終的な回答を生成する
    • 会話のコンテキストと履歴を維持する

ライセンス

MIT ライセンス - 詳細については LICENSE ファイルを参照してください。

クレジット

構造化推論と知識検索を通じて AI 応答を強化するSkiranoの RAT (検索拡張思考) コンセプトに基づいています。

この実装では、OpenRouter の統合 API を介して、DeepSeek R1 の推論機能と Claude 3.5 Sonnet の応答生成を具体的に組み合わせています。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

DeepSeek を使用して詳細な分析を行う 2 段階の推論プロセスを容易にし、Claude 3.5 Sonnet や OpenRouter などの複数の応答モデルをサポートして、会話のコンテキストを維持し、AI 主導のインタラクションを強化します。

  1. 特徴
    1. インストール
      1. Smithery経由でインストール
      2. 手動インストール
    2. Cline での使用
      1. ツールの使用
        1. レスポンスを生成する
        2. 応答ステータスの確認
        3. 回答投票
      2. 発達
        1. 仕組み
          1. ライセンス
            1. クレジット

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                Enhances Claude's reasoning capabilities by integrating DeepSeek R1's advanced reasoning engine for intricate multi-step reasoning tasks with precision and efficiency.
                Last updated -
                1
                35
                Python
                MIT License
                • Apple
              • -
                security
                F
                license
                -
                quality
                This server integrates DeepSeek and Claude AI models to provide enhanced AI responses, featuring a RESTful API, configurable parameters, and robust error handling.
                Last updated -
                13
                TypeScript
              • A
                security
                F
                license
                A
                quality
                Provides reasoning content to MCP-enabled AI clients by interfacing with Deepseek's API or a local Ollama server, enabling focused reasoning and thought process visualization.
                Last updated -
                1
                54
                24
                JavaScript
              • A
                security
                A
                license
                A
                quality
                A server that enhances Claude's reasoning capabilities by integrating DeepSeek R1's advanced reasoning engine to tackle complex reasoning tasks.
                Last updated -
                1
                Python
                MIT License
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server