Skip to main content
Glama

深探-思考-克劳德-3.5-十四行诗-CLINE-MCP

铁匠徽章

模型上下文协议 (MCP) 服务器,通过 OpenRouter 将 DeepSeek R1 的推理功能与 Claude 3.5 Sonnet 的响应生成功能相结合。此实现采用两阶段流程,其中 DeepSeek 提供结构化推理,然后将其整合到 Claude 的响应生成中。

特征

  • 两阶段处理

    • 使用 DeepSeek R1 进行初步推理(50k 个字符上下文)

    • 使用 Claude 3.5 Sonnet 进行最终响应(600k 字符上下文)

    • 两种模型都可以通过 OpenRouter 的统一 API 访问

    • 将 DeepSeek 的推理标记注入 Claude 的上下文中

  • 智能对话管理

    • 使用文件修改时间检测活动对话

    • 处理多个并发对话

    • 自动过滤已结束的对话

    • 需要时支持上下文清除

  • 优化参数

    • 特定于模型的上下文限制:

      • DeepSeek:50,000 个字符用于集中推理

      • 克劳德:60万字的综合回复

    • 推荐设置:

      • 温度:0.7,代表平衡创造力

      • top_p:1.0,表示完全概率分布

      • repetition_penalty: 1.0 以防止重复

Related MCP server: RAT MCP Server

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 DeepSeek Thinking with Claude 3.5 Sonnet:

npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude

手动安装

  1. 克隆存储库:

git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
  1. 安装依赖项:

npm install
  1. 使用您的 OpenRouter API 密钥创建一个.env文件:

# Required: OpenRouter API key for both DeepSeek and Claude models OPENROUTER_API_KEY=your_openrouter_api_key_here # Optional: Model configuration (defaults shown below) DEEPSEEK_MODEL=deepseek/deepseek-r1 # DeepSeek model for reasoning CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta # Claude model for responses
  1. 构建服务器:

npm run build

与 Cline 一起使用

添加到您的 Cline MCP 设置(通常在~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json中):

{ "mcpServers": { "deepseek-claude": { "command": "/path/to/node", "args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"], "env": { "OPENROUTER_API_KEY": "your_key_here" }, "disabled": false, "autoApprove": [] } } }

工具使用

服务器提供了两种用于生成和监控响应的工具:

生成响应

用于生成具有以下参数的响应的主要工具:

{ "prompt": string, // Required: The question or prompt "showReasoning"?: boolean, // Optional: Show DeepSeek's reasoning process "clearContext"?: boolean, // Optional: Clear conversation history "includeHistory"?: boolean // Optional: Include Cline conversation history }

检查响应状态

检查响应生成任务状态的工具:

{ "taskId": string // Required: The task ID from generate_response }

响应轮询

服务器使用轮询机制来处理长时间运行的请求:

  1. 初始请求:

    • generate_response立即返回任务 ID

    • 响应格式: {"taskId": "uuid-here"}

  2. 状态检查:

    • 使用check_response_status轮询任务状态

    • **注意:**回复最多可能需要 60 秒才能完成

    • 状态进展如下:待处理 → 推理 → 响应 → 完成

Cline 中的用法示例:

// Initial request const result = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "generate_response", arguments: { prompt: "What is quantum computing?", showReasoning: true } }); // Get taskId from result const taskId = JSON.parse(result.content[0].text).taskId; // Poll for status (may need multiple checks over ~60 seconds) const status = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "check_response_status", arguments: { taskId } }); // Example status response when complete: { "status": "complete", "reasoning": "...", // If showReasoning was true "response": "..." // The final response }

发展

对于使用自动重建的开发:

npm run watch

工作原理

  1. 推理阶段(DeepSeek R1)

    • 使用 OpenRouter 的推理令牌功能

    • 修改提示,在捕获推理的同时输出“完成”

    • 从响应元数据中提取推理

  2. 响应阶段(克劳德 3.5 十四行诗)

    • 接收原始提示和 DeepSeek 的推理

    • 生成包含推理的最终答案

    • 保留对话上下文和历史记录

执照

MIT 许可证 - 有关详细信息,请参阅 LICENSE 文件。

致谢

基于Skirano的 RAT(检索增强思维)概念,通过结构化推理和知识检索增强 AI 响应。

该实现具体通过 OpenRouter 的统一 API 将 DeepSeek R1 的推理能力与 Claude 3.5 Sonnet 的响应生成结合起来。

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server