Deepseek Thinker MCP 服务器
MCP(模型上下文协议)将 Deepseek 推理内容提供给支持 MCP 的 AI 客户端,例如 Claude Desktop。支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思维过程。
核心功能
🤖双模式支持
OpenAI API 模式支持
Ollama 本地模式支持
🎯专注推理
捕捉 Deepseek 的思考过程
提供推理输出
Related MCP server: Multi-Model Advisor
可用工具
深入探索思想者
描述:使用Deepseek模型进行推理
输入参数:
originPrompt(字符串): 用户的原始提示
返回:包含推理过程的结构化文本响应
环境配置
OpenAI API 模式
设置以下环境变量:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>奥拉玛模式
设置以下环境变量:
USE_OLLAMA=true用法
与 AI Client 集成,例如 Claude Desktop
将以下配置添加到您的claude_desktop_config.json :
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}使用 Ollama 模式
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}本地服务器配置
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}开发设置
# Install dependencies
npm install
# Build project
npm run build
# Run service
node build/index.js常问问题
响应如下:“MCP 错误 -32001:请求超时”
当Deepseek API响应过慢或者推理内容输出过长导致MCP服务器超时时,就会出现此错误。
技术栈
TypeScript
@modelcontextprotocol/sdk
OpenAI API
奥拉马
Zod(参数验证)
执照
本项目遵循 MIT 许可证。详情请参阅 LICENSE 文件。
Resources
Looking for Admin?
Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.