ディープシーク-思考-クロード-3.5-ソネット-CLINE-MCP
DeepSeek R1の推論機能と、OpenRouterを介したClaude 3.5 Sonnetのレスポンス生成機能を組み合わせたModel Context Protocol(MCP)サーバー。この実装では、DeepSeekが構造化推論を提供し、それがClaudeのレスポンス生成に組み込まれるという2段階のプロセスを採用しています。
特徴
2段階処理:
初期推論にDeepSeek R1を使用(5万文字のコンテキスト)
最終回答には Claude 3.5 Sonnet を使用 (60 万文字のコンテキスト)
どちらのモデルもOpenRouterの統合APIを通じてアクセス可能
DeepSeekの推論トークンをClaudeのコンテキストに挿入する
スマート会話管理:
ファイルの変更時刻を使用してアクティブな会話を検出します
複数の同時会話を処理
終了した会話を自動的にフィルタリングします
必要に応じてコンテキストのクリアをサポート
最適化されたパラメータ:
モデル固有のコンテキスト制限:
DeepSeek: 集中的な推論のための50,000文字
クロード:包括的な回答には60万文字
推奨設定:
温度:バランスのとれた創造性のための0.7
top_p: 完全な確率分布の場合は1.0
repetition_penalty: 繰り返しを防ぐには 1.0
Related MCP server: DeepClaude MCP Server
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop に DeepSeek Thinking with Claude 3.5 Sonnet を自動的にインストールするには:
npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude手動インストール
リポジトリをクローンします。
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP依存関係をインストールします:
npm installOpenRouter API キーを使用して
.envファイルを作成します。
# Required: OpenRouter API key for both DeepSeek and Claude models
OPENROUTER_API_KEY=your_openrouter_api_key_here
# Optional: Model configuration (defaults shown below)
DEEPSEEK_MODEL=deepseek/deepseek-r1 # DeepSeek model for reasoning
CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta # Claude model for responsesサーバーを構築します。
npm run buildCline での使用
Cline MCP 設定に追加します (通常は~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.jsonにあります)。
{
"mcpServers": {
"deepseek-claude": {
"command": "/path/to/node",
"args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"],
"env": {
"OPENROUTER_API_KEY": "your_key_here"
},
"disabled": false,
"autoApprove": []
}
}
}ツールの使用
サーバーは、応答を生成および監視するための 2 つのツールを提供します。
レスポンスを生成する
次のパラメータを使用して応答を生成するためのメイン ツール:
{
"prompt": string, // Required: The question or prompt
"showReasoning"?: boolean, // Optional: Show DeepSeek's reasoning process
"clearContext"?: boolean, // Optional: Clear conversation history
"includeHistory"?: boolean // Optional: Include Cline conversation history
}応答ステータスの確認
応答生成タスクのステータスを確認するためのツール:
{
"taskId": string // Required: The task ID from generate_response
}回答投票
サーバーは、長時間実行されるリクエストを処理するためにポーリング メカニズムを使用します。
最初のリクエスト:
generate_responseタスクIDとともに直ちに返されます応答形式:
{"taskId": "uuid-here"}
ステータスの確認:
check_response_statusを使用してタスクのステータスをポーリングします**注:**回答には最大 60 秒かかる場合があります
ステータスは、保留中 → 推論中 → 応答中 → 完了の順に進行します。
Cline での使用例:
// Initial request
const result = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "generate_response",
arguments: {
prompt: "What is quantum computing?",
showReasoning: true
}
});
// Get taskId from result
const taskId = JSON.parse(result.content[0].text).taskId;
// Poll for status (may need multiple checks over ~60 seconds)
const status = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "check_response_status",
arguments: { taskId }
});
// Example status response when complete:
{
"status": "complete",
"reasoning": "...", // If showReasoning was true
"response": "..." // The final response
}発達
自動リビルドを使用した開発の場合:
npm run watch仕組み
推論段階(DeepSeek R1) :
OpenRouterの推論トークン機能を使用する
プロンプトは推論をキャプチャしながら「完了」を出力するように変更されました
回答メタデータから推論が抽出される
応答段階(クロード3.5ソネット) :
元のプロンプトとDeepSeekの推論を受け取る
推論を組み込んだ最終的な回答を生成する
会話のコンテキストと履歴を維持する
ライセンス
MIT ライセンス - 詳細については LICENSE ファイルを参照してください。
クレジット
構造化推論と知識検索を通じて AI 応答を強化するSkiranoの RAT (検索拡張思考) コンセプトに基づいています。
この実装では、OpenRouter の統合 API を介して、DeepSeek R1 の推論機能と Claude 3.5 Sonnet の応答生成を具体的に組み合わせています。