Skip to main content
Glama

Deepseek Thinker MCP 服务器

铁匠徽章

MCP(模型上下文协议)将 Deepseek 推理内容提供给支持 MCP 的 AI 客户端,例如 Claude Desktop。支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思维过程。

核心功能

  • 🤖双模式支持

    • OpenAI API 模式支持

    • Ollama 本地模式支持

  • 🎯专注推理

    • 捕捉 Deepseek 的思考过程

    • 提供推理输出

Related MCP server: Multi-Model Advisor

可用工具

深入探索思想者

  • 描述:使用Deepseek模型进行推理

  • 输入参数

    • originPrompt (字符串): 用户的原始提示

  • 返回:包含推理过程的结构化文本响应

环境配置

OpenAI API 模式

设置以下环境变量:

API_KEY=<Your OpenAI API Key> BASE_URL=<API Base URL>

奥拉玛模式

设置以下环境变量:

USE_OLLAMA=true

用法

与 AI Client 集成,例如 Claude Desktop

将以下配置添加到您的claude_desktop_config.json

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

使用 Ollama 模式

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "USE_OLLAMA": "true" } } } }

本地服务器配置

{ "mcpServers": { "deepseek-thinker": { "command": "node", "args": [ "/your-path/deepseek-thinker-mcp/build/index.js" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

开发设置

# Install dependencies npm install # Build project npm run build # Run service node build/index.js

常问问题

响应如下:“MCP 错误 -32001:请求超时”

当Deepseek API响应过慢或者推理内容输出过长导致MCP服务器超时时,就会出现此错误。

技术栈

  • TypeScript

  • @modelcontextprotocol/sdk

  • OpenAI API

  • 奥拉马

  • Zod(参数验证)

执照

本项目遵循 MIT 许可证。详情请参阅 LICENSE 文件。

One-click Deploy
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ruixingshi/deepseek-thinker-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server