hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Deepseek Thinker MCP 服务器
MCP(模型上下文协议)将 Deepseek 推理内容提供给支持 MCP 的 AI 客户端,例如 Claude Desktop。支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思维过程。
核心功能
- 🤖双模式支持
- OpenAI API 模式支持
- Ollama 本地模式支持
- 🎯专注推理
- 捕捉 Deepseek 的思考过程
- 提供推理输出
可用工具
深入探索思想者
- 描述:使用Deepseek模型进行推理
- 输入参数:
originPrompt
(字符串): 用户的原始提示
- 返回:包含推理过程的结构化文本响应
环境配置
OpenAI API 模式
设置以下环境变量:
Copy
奥拉玛模式
设置以下环境变量:
Copy
用法
与 AI Client 集成,例如 Claude Desktop
将以下配置添加到您的claude_desktop_config.json
:
Copy
使用 Ollama 模式
Copy
本地服务器配置
Copy
开发设置
Copy
常问问题
响应如下:“MCP 错误 -32001:请求超时”
当Deepseek API响应过慢或者推理内容输出过长导致MCP服务器超时时,就会出现此错误。
技术栈
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- 奥拉马
- Zod(参数验证)
执照
本项目遵循 MIT 许可证。详情请参阅 LICENSE 文件。
You must be authenticated.
Tools
通过与 Deepseek 的 API 或本地 Ollama 服务器交互,为支持 MCP 的 AI 客户端提供推理内容,实现集中推理和思维过程可视化。