Skip to main content
Glama

DeepSeek MCP Server

DeepSeek MCP 服务器

DeepSeek API 的模型上下文协议 (MCP) 服务器,允许 DeepSeek 强大的语言模型与 Claude Desktop 等 MCP 兼容应用程序无缝集成。

匿名使用 DeepSeek API——在另一端只能看到代理

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 DeepSeek MCP 服务器:

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

手动安装

npm install -g deepseek-mcp-server

与 Claude Desktop 一起使用

将其添加到您的claude_desktop_config.json中:

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

特征

注意:服务器会智能地处理这些自然语言请求,并将它们映射到适当的配置更改。您还可以查询当前设置和可用模型:

  • 用户:“有哪些型号可供选择?”
    • 响应:通过模型资源显示可用模型及其功能的列表。
  • 用户:“我有哪些配置选项?”
    • 响应:通过 model-config 资源列出所有可用的配置选项。
  • 用户:“当前温度设置是多少?”
    • 响应:显示当前温度设置。
  • 用户:“开始多轮对话。使用以下设置:模型:‘deepseek-chat’,不要太有创意,并允许 8000 个令牌。”
    • 响应:使用指定的设置开始多轮对话。

如果 R1 发生故障,则自动模型回退

  • 如果主模型(R1)发生故障(在服务器中称为deepseek-reasoner ),服务器将自动尝试使用 v3(在服务器中称为deepseek-chat

注意:您也可以随时来回切换,只需给出提示并说“使用deepseek-reasoner ”或“使用deepseek-chat

  • 建议将 V3 用于一般用途,而将 R1 用于技术性更强、更复杂的查询,主要是因为速度和令牌使用

可用模型和配置的资源发现:

  • 自定义模型选择
  • 温度控制(0.0 - 2.0)
  • 最大代币限制
  • 顶部 P 采样(0.0 - 1.0)
  • 出场惩罚 (-2.0 - 2.0)
  • 频率惩罚(-2.0 - 2.0)

增强的对话功能

多轮对话支持:

  • 维护跨交易所的完整消息历史记录和上下文
  • 在整个对话过程中保留配置设置
  • 自动处理复杂的对话流程和后续链

此功能对于两个关键用例特别有价值:

  1. **训练与微调:**由于 DeepSeek 是开源的,许多用户正在训练自己的版本。多轮对话支持提供了格式正确的对话数据,这对于训练高质量的对话模型至关重要。
  2. **复杂交互:**对于生产用途,这有助于管理上下文至关重要的较长对话:
    • 多步骤推理问题
    • 交互式故障排除会议
    • 详细的技术讨论
    • 任何早期消息的上下文都会影响后续响应的情况

该实现在后台处理所有上下文管理和消息格式,让您专注于实际交互而不是维护对话状态的技术细节。

使用 MCP Inspector 进行测试

您可以使用 MCP Inspector 工具在本地测试服务器:

  1. 构建服务器:
    npm run build
  2. 使用 MCP Inspector 运行服务器:
    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

检查器将在您的浏览器中打开,并通过 stdio 传输连接到服务器。您可以:

  • 查看可用工具
  • 使用不同的参数测试聊天完成情况
  • 调试服务器响应
  • 监控服务器性能

注意:服务器默认使用DeepSeek的R1模型(deepseek-reasoner),该模型为推理和通用任务提供了最先进的性能。

执照

麻省理工学院

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

实现 DeepSeek 语言模型与 MCP 兼容应用程序的集成,提供聊天完成、自定义模型选择和参数控制等功能,以增强基于语言的交互。

  1. 匿名使用 DeepSeek API——在另一端只能看到代理
    1. 安装
      1. 通过 Smithery 安装
      2. 手动安装
      3. 与 Claude Desktop 一起使用
    2. 特征
      1. 如果 R1 发生故障,则自动模型回退
      2. 可用模型和配置的资源发现:
    3. 增强的对话功能
      1. 使用 MCP Inspector 进行测试
        1. 执照

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            Facilitates two-stage reasoning processes using DeepSeek for detailed analysis and supports multiple response models such as Claude 3.5 Sonnet and OpenRouter, maintaining conversation context and enhancing AI-driven interactions.
            Last updated -
            2
            101
            JavaScript
            MIT License
          • A
            security
            A
            license
            A
            quality
            A Node.js/TypeScript implementation of a Model Context Protocol server for the Deepseek R1 language model, optimized for reasoning tasks with a large context window and fully integrated with Claude Desktop.
            Last updated -
            1
            40
            JavaScript
            MIT License
            • Apple
            • Linux
          • A
            security
            A
            license
            A
            quality
            An MCP (Model Context Protocol) server that integrates with the ArgoCD API, enabling AI assistants and large language models to manage ArgoCD applications and resources through natural language interactions.
            Last updated -
            10
            6
            Python
            MIT License
            • Linux
            • Apple
          • A
            security
            A
            license
            A
            quality
            A Model Context Protocol server that combines DeepSeek R1's reasoning capabilities with Claude 3.5 Sonnet's response generation, enabling two-stage AI processing where DeepSeek's structured reasoning enhances Claude's final outputs.
            Last updated -
            2
            JavaScript
            MIT License

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/DMontgomery40/deepseek-mcp-server'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server