Deepseek Thinker MCP Server
Servidor MCP de Deepseek Thinker
Un proveedor MCP (Protocolo de Contexto de Modelo) que proporciona contenido de razonamiento de Deepseek a clientes de IA compatibles con MCP, como Claude Desktop. Permite el acceso a los procesos de pensamiento de Deepseek desde el servicio API de Deepseek o desde un servidor Ollama local.
Características principales
🤖 Soporte de modo dual
Compatibilidad con el modo API de OpenAI
Compatibilidad con el modo local de Ollama
🎯 Razonamiento enfocado
Captura el proceso de pensamiento de Deepseek
Proporciona una salida de razonamiento
Related MCP server: Multi-Model Advisor
Herramientas disponibles
pensador de búsqueda profunda
Descripción : Realice razonamiento utilizando el modelo Deepseek
Parámetros de entrada :
originPrompt(cadena): mensaje original del usuario
Devuelve : Respuesta de texto estructurada que contiene el proceso de razonamiento
Configuración del entorno
Modo API de OpenAI
Establezca las siguientes variables de entorno:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>Modo Ollama
Establezca la siguiente variable de entorno:
USE_OLLAMA=trueUso
Integración con AI Client, como Claude Desktop
Agregue la siguiente configuración a su claude_desktop_config.json :
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}Usando el modo Ollama
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}Configuración del servidor local
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}Configuración de desarrollo
# Install dependencies
npm install
# Build project
npm run build
# Run service
node build/index.jsPreguntas frecuentes
Respuesta como esta: "Error MCP -32001: Se agotó el tiempo de solicitud"
Este error ocurre cuando la respuesta de la API de Deepseek es demasiado lenta o cuando la salida del contenido del razonamiento es demasiado larga, lo que provoca que el servidor MCP agote el tiempo de espera.
Pila tecnológica
Mecanografiado
@modelcontextprotocol/sdk
API de OpenAI
Ollama
Zod (validación de parámetros)
Licencia
Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.
Maintenance
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Tools
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/ruixingshi/deepseek-thinker-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server