Servidor MCP de Deepseek Thinker
Un proveedor MCP (Protocolo de Contexto de Modelo) que proporciona contenido de razonamiento de Deepseek a clientes de IA compatibles con MCP, como Claude Desktop. Permite el acceso a los procesos de pensamiento de Deepseek desde el servicio API de Deepseek o desde un servidor Ollama local.
Características principales
🤖 Soporte de modo dual
Compatibilidad con el modo API de OpenAI
Compatibilidad con el modo local de Ollama
🎯 Razonamiento enfocado
Captura el proceso de pensamiento de Deepseek
Proporciona una salida de razonamiento
Related MCP server: Multi-Model Advisor
Herramientas disponibles
pensador de búsqueda profunda
Descripción : Realice razonamiento utilizando el modelo Deepseek
Parámetros de entrada :
originPrompt(cadena): mensaje original del usuario
Devuelve : Respuesta de texto estructurada que contiene el proceso de razonamiento
Configuración del entorno
Modo API de OpenAI
Establezca las siguientes variables de entorno:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>Modo Ollama
Establezca la siguiente variable de entorno:
USE_OLLAMA=trueUso
Integración con AI Client, como Claude Desktop
Agregue la siguiente configuración a su claude_desktop_config.json :
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}Usando el modo Ollama
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}Configuración del servidor local
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}Configuración de desarrollo
# Install dependencies
npm install
# Build project
npm run build
# Run service
node build/index.jsPreguntas frecuentes
Respuesta como esta: "Error MCP -32001: Se agotó el tiempo de solicitud"
Este error ocurre cuando la respuesta de la API de Deepseek es demasiado lenta o cuando la salida del contenido del razonamiento es demasiado larga, lo que provoca que el servidor MCP agote el tiempo de espera.
Pila tecnológica
Mecanografiado
@modelcontextprotocol/sdk
API de OpenAI
Ollama
Zod (validación de parámetros)
Licencia
Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.