Servidor MCP de Deepseek Thinker
Un proveedor MCP (Protocolo de Contexto de Modelo) que proporciona contenido de razonamiento de Deepseek a clientes de IA compatibles con MCP, como Claude Desktop. Permite el acceso a los procesos de pensamiento de Deepseek desde el servicio API de Deepseek o desde un servidor Ollama local.
Características principales
🤖 Soporte de modo dual
Compatibilidad con el modo API de OpenAI
Compatibilidad con el modo local de Ollama
🎯 Razonamiento enfocado
Captura el proceso de pensamiento de Deepseek
Proporciona una salida de razonamiento
Related MCP server: Multi-Model Advisor
Herramientas disponibles
pensador de búsqueda profunda
Descripción : Realice razonamiento utilizando el modelo Deepseek
Parámetros de entrada :
originPrompt(cadena): mensaje original del usuario
Devuelve : Respuesta de texto estructurada que contiene el proceso de razonamiento
Configuración del entorno
Modo API de OpenAI
Establezca las siguientes variables de entorno:
Modo Ollama
Establezca la siguiente variable de entorno:
Uso
Integración con AI Client, como Claude Desktop
Agregue la siguiente configuración a su claude_desktop_config.json :
Usando el modo Ollama
Configuración del servidor local
Configuración de desarrollo
Preguntas frecuentes
Respuesta como esta: "Error MCP -32001: Se agotó el tiempo de solicitud"
Este error ocurre cuando la respuesta de la API de Deepseek es demasiado lenta o cuando la salida del contenido del razonamiento es demasiado larga, lo que provoca que el servidor MCP agote el tiempo de espera.
Pila tecnológica
Mecanografiado
@modelcontextprotocol/sdk
API de OpenAI
Ollama
Zod (validación de parámetros)
Licencia
Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.