DeepSeek MCP Server

by DMontgomery40
Verified

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

DeepSeek MCP 服务器

DeepSeek API 的模型上下文协议 (MCP) 服务器,允许 DeepSeek 强大的语言模型与 Claude Desktop 等 MCP 兼容应用程序无缝集成。

匿名使用 DeepSeek API——在另一端只能看到代理

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 DeepSeek MCP 服务器:

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

手动安装

npm install -g deepseek-mcp-server

与 Claude Desktop 一起使用

将其添加到您的claude_desktop_config.json中:

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

特征

注意:服务器会智能地处理这些自然语言请求,并将它们映射到适当的配置更改。您还可以查询当前设置和可用模型:

  • 用户:“有哪些型号可供选择?”
    • 响应:通过模型资源显示可用模型及其功能的列表。
  • 用户:“我有哪些配置选项?”
    • 响应:通过 model-config 资源列出所有可用的配置选项。
  • 用户:“当前温度设置是多少?”
    • 响应:显示当前温度设置。
  • 用户:“开始多轮对话。使用以下设置:模型:‘deepseek-chat’,不要太有创意,并允许 8000 个令牌。”
    • 响应:使用指定的设置开始多轮对话。

如果 R1 发生故障,则自动模型回退

  • 如果主模型(R1)发生故障(在服务器中称为deepseek-reasoner ),服务器将自动尝试使用 v3(在服务器中称为deepseek-chat

注意:您也可以随时来回切换,只需给出提示并说“使用deepseek-reasoner ”或“使用deepseek-chat

  • 建议将 V3 用于一般用途,而将 R1 用于技术性更强、更复杂的查询,主要是因为速度和令牌使用

可用模型和配置的资源发现:

  • 自定义模型选择
  • 温度控制(0.0 - 2.0)
  • 最大代币限制
  • 顶部 P 采样(0.0 - 1.0)
  • 出场惩罚 (-2.0 - 2.0)
  • 频率惩罚(-2.0 - 2.0)

增强的对话功能

多轮对话支持:

  • 维护跨交易所的完整消息历史记录和上下文
  • 在整个对话过程中保留配置设置
  • 自动处理复杂的对话流程和后续链

此功能对于两个关键用例特别有价值:

  1. **训练与微调:**由于 DeepSeek 是开源的,许多用户正在训练自己的版本。多轮对话支持提供了格式正确的对话数据,这对于训练高质量的对话模型至关重要。
  2. **复杂交互:**对于生产用途,这有助于管理上下文至关重要的较长对话:
    • 多步骤推理问题
    • 交互式故障排除会议
    • 详细的技术讨论
    • 任何早期消息的上下文都会影响后续响应的情况

该实现在后台处理所有上下文管理和消息格式,让您专注于实际交互而不是维护对话状态的技术细节。

使用 MCP Inspector 进行测试

您可以使用 MCP Inspector 工具在本地测试服务器:

  1. 构建服务器:
    npm run build
  2. 使用 MCP Inspector 运行服务器:
    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

检查器将在您的浏览器中打开,并通过 stdio 传输连接到服务器。您可以:

  • 查看可用工具
  • 使用不同的参数测试聊天完成情况
  • 调试服务器响应
  • 监控服务器性能

注意:服务器默认使用DeepSeek的R1模型(deepseek-reasoner),该模型为推理和通用任务提供了最先进的性能。

执照

麻省理工学院

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

实现 DeepSeek 语言模型与 MCP 兼容应用程序的集成,提供聊天完成、自定义模型选择和参数控制等功能,以增强基于语言的交互。

  1. Anonymously use DeepSeek API -- Only a proxy is seen on the other side
    1. Installation
      1. Installing via Smithery
      2. Manual Installation
      3. Usage with Claude Desktop
    2. Features
      1. Automatic Model Fallback if R1 is down
      2. Resource discovery for available models and configurations:
    3. Enhanced Conversation Features
      1. Testing with MCP Inspector
        1. License
          ID: asht4rqltn