Skip to main content
Glama

深探-思考-克劳德-3.5-十四行诗-CLINE-MCP

铁匠徽章

模型上下文协议 (MCP) 服务器,通过 OpenRouter 将 DeepSeek R1 的推理功能与 Claude 3.5 Sonnet 的响应生成功能相结合。此实现采用两阶段流程,其中 DeepSeek 提供结构化推理,然后将其整合到 Claude 的响应生成中。

特征

  • 两阶段处理

    • 使用 DeepSeek R1 进行初步推理(50k 个字符上下文)

    • 使用 Claude 3.5 Sonnet 进行最终响应(600k 字符上下文)

    • 两种模型都可以通过 OpenRouter 的统一 API 访问

    • 将 DeepSeek 的推理标记注入 Claude 的上下文中

  • 智能对话管理

    • 使用文件修改时间检测活动对话

    • 处理多个并发对话

    • 自动过滤已结束的对话

    • 需要时支持上下文清除

  • 优化参数

    • 特定于模型的上下文限制:

      • DeepSeek:50,000 个字符用于集中推理

      • 克劳德:60万字的综合回复

    • 推荐设置:

      • 温度:0.7,代表平衡创造力

      • top_p:1.0,表示完全概率分布

      • repetition_penalty: 1.0 以防止重复

Related MCP server: RAT MCP Server

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 DeepSeek Thinking with Claude 3.5 Sonnet:

npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude

手动安装

  1. 克隆存储库:

git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
  1. 安装依赖项:

npm install
  1. 使用您的 OpenRouter API 密钥创建一个.env文件:

# Required: OpenRouter API key for both DeepSeek and Claude models
OPENROUTER_API_KEY=your_openrouter_api_key_here

# Optional: Model configuration (defaults shown below)
DEEPSEEK_MODEL=deepseek/deepseek-r1  # DeepSeek model for reasoning
CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta  # Claude model for responses
  1. 构建服务器:

npm run build

与 Cline 一起使用

添加到您的 Cline MCP 设置(通常在~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json中):

{
  "mcpServers": {
    "deepseek-claude": {
      "command": "/path/to/node",
      "args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"],
      "env": {
        "OPENROUTER_API_KEY": "your_key_here"
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}

工具使用

服务器提供了两种用于生成和监控响应的工具:

生成响应

用于生成具有以下参数的响应的主要工具:

{
  "prompt": string,           // Required: The question or prompt
  "showReasoning"?: boolean, // Optional: Show DeepSeek's reasoning process
  "clearContext"?: boolean,  // Optional: Clear conversation history
  "includeHistory"?: boolean // Optional: Include Cline conversation history
}

检查响应状态

检查响应生成任务状态的工具:

{
  "taskId": string  // Required: The task ID from generate_response
}

响应轮询

服务器使用轮询机制来处理长时间运行的请求:

  1. 初始请求:

    • generate_response立即返回任务 ID

    • 响应格式: {"taskId": "uuid-here"}

  2. 状态检查:

    • 使用check_response_status轮询任务状态

    • **注意:**回复最多可能需要 60 秒才能完成

    • 状态进展如下:待处理 → 推理 → 响应 → 完成

Cline 中的用法示例:

// Initial request
const result = await use_mcp_tool({
  server_name: "deepseek-claude",
  tool_name: "generate_response",
  arguments: {
    prompt: "What is quantum computing?",
    showReasoning: true
  }
});

// Get taskId from result
const taskId = JSON.parse(result.content[0].text).taskId;

// Poll for status (may need multiple checks over ~60 seconds)
const status = await use_mcp_tool({
  server_name: "deepseek-claude",
  tool_name: "check_response_status",
  arguments: { taskId }
});

// Example status response when complete:
{
  "status": "complete",
  "reasoning": "...",  // If showReasoning was true
  "response": "..."    // The final response
}

发展

对于使用自动重建的开发:

npm run watch

工作原理

  1. 推理阶段(DeepSeek R1)

    • 使用 OpenRouter 的推理令牌功能

    • 修改提示,在捕获推理的同时输出“完成”

    • 从响应元数据中提取推理

  2. 响应阶段(克劳德 3.5 十四行诗)

    • 接收原始提示和 DeepSeek 的推理

    • 生成包含推理的最终答案

    • 保留对话上下文和历史记录

执照

MIT 许可证 - 有关详细信息,请参阅 LICENSE 文件。

致谢

基于Skirano的 RAT(检索增强思维)概念,通过结构化推理和知识检索增强 AI 响应。

该实现具体通过 OpenRouter 的统一 API 将 DeepSeek R1 的推理能力与 Claude 3.5 Sonnet 的响应生成结合起来。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server