Skip to main content
Glama
ruixingshi

Deepseek Thinker MCP Server

by ruixingshi

Deepseek Thinker MCP 服务器

铁匠徽章

MCP(模型上下文协议)将 Deepseek 推理内容提供给支持 MCP 的 AI 客户端,例如 Claude Desktop。支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思维过程。

核心功能

  • 🤖双模式支持

    • OpenAI API 模式支持

    • Ollama 本地模式支持

  • 🎯专注推理

    • 捕捉 Deepseek 的思考过程

    • 提供推理输出

Related MCP server: Multi-Model Advisor

可用工具

深入探索思想者

  • 描述:使用Deepseek模型进行推理

  • 输入参数

    • originPrompt (字符串): 用户的原始提示

  • 返回:包含推理过程的结构化文本响应

环境配置

OpenAI API 模式

设置以下环境变量:

API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>

奥拉玛模式

设置以下环境变量:

USE_OLLAMA=true

用法

与 AI Client 集成,例如 Claude Desktop

将以下配置添加到您的claude_desktop_config.json

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "API_KEY": "<Your API Key>",
        "BASE_URL": "<Your Base URL>"
      }
    }
  }
}

使用 Ollama 模式

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "USE_OLLAMA": "true"
      }
    }
  }
}

本地服务器配置

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "node",
      "args": [
        "/your-path/deepseek-thinker-mcp/build/index.js"
      ],
      "env": {
        "API_KEY": "<Your API Key>",
        "BASE_URL": "<Your Base URL>"
      }
    }
  }
}

开发设置

# Install dependencies
npm install

# Build project
npm run build

# Run service
node build/index.js

常问问题

响应如下:“MCP 错误 -32001:请求超时”

当Deepseek API响应过慢或者推理内容输出过长导致MCP服务器超时时,就会出现此错误。

技术栈

  • TypeScript

  • @modelcontextprotocol/sdk

  • OpenAI API

  • 奥拉马

  • Zod(参数验证)

执照

本项目遵循 MIT 许可证。详情请参阅 LICENSE 文件。

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Resources

Looking for Admin?

Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ruixingshi/deepseek-thinker-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server