Deepseek Thinker MCP 服务器
MCP(模型上下文协议)将 Deepseek 推理内容提供给支持 MCP 的 AI 客户端,例如 Claude Desktop。支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思维过程。
核心功能
- 🤖双模式支持
- OpenAI API 模式支持
- Ollama 本地模式支持
- 🎯专注推理
可用工具
深入探索思想者
- 描述:使用Deepseek模型进行推理
- 输入参数:
originPrompt
(字符串): 用户的原始提示
- 返回:包含推理过程的结构化文本响应
环境配置
OpenAI API 模式
设置以下环境变量:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
奥拉玛模式
设置以下环境变量:
用法
与 AI Client 集成,例如 Claude Desktop
将以下配置添加到您的claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
使用 Ollama 模式
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
本地服务器配置
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
开发设置
# Install dependencies
npm install
# Build project
npm run build
# Run service
node build/index.js
常问问题
响应如下:“MCP 错误 -32001:请求超时”
当Deepseek API响应过慢或者推理内容输出过长导致MCP服务器超时时,就会出现此错误。
技术栈
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- 奥拉马
- Zod(参数验证)
执照
本项目遵循 MIT 许可证。详情请参阅 LICENSE 文件。