Skip to main content
Glama

Servidor MCP de Deepseek Thinker

insignia de herrería

Un proveedor MCP (Protocolo de Contexto de Modelo) que proporciona contenido de razonamiento de Deepseek a clientes de IA compatibles con MCP, como Claude Desktop. Permite el acceso a los procesos de pensamiento de Deepseek desde el servicio API de Deepseek o desde un servidor Ollama local.

Características principales

  • 🤖 Soporte de modo dual

    • Compatibilidad con el modo API de OpenAI

    • Compatibilidad con el modo local de Ollama

  • 🎯 Razonamiento enfocado

    • Captura el proceso de pensamiento de Deepseek

    • Proporciona una salida de razonamiento

Related MCP server: Multi-Model Advisor

Herramientas disponibles

pensador de búsqueda profunda

  • Descripción : Realice razonamiento utilizando el modelo Deepseek

  • Parámetros de entrada :

    • originPrompt (cadena): mensaje original del usuario

  • Devuelve : Respuesta de texto estructurada que contiene el proceso de razonamiento

Configuración del entorno

Modo API de OpenAI

Establezca las siguientes variables de entorno:

API_KEY=<Your OpenAI API Key> BASE_URL=<API Base URL>

Modo Ollama

Establezca la siguiente variable de entorno:

USE_OLLAMA=true

Uso

Integración con AI Client, como Claude Desktop

Agregue la siguiente configuración a su claude_desktop_config.json :

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

Usando el modo Ollama

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "USE_OLLAMA": "true" } } } }

Configuración del servidor local

{ "mcpServers": { "deepseek-thinker": { "command": "node", "args": [ "/your-path/deepseek-thinker-mcp/build/index.js" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

Configuración de desarrollo

# Install dependencies npm install # Build project npm run build # Run service node build/index.js

Preguntas frecuentes

Respuesta como esta: "Error MCP -32001: Se agotó el tiempo de solicitud"

Este error ocurre cuando la respuesta de la API de Deepseek es demasiado lenta o cuando la salida del contenido del razonamiento es demasiado larga, lo que provoca que el servidor MCP agote el tiempo de espera.

Pila tecnológica

  • Mecanografiado

  • @modelcontextprotocol/sdk

  • API de OpenAI

  • Ollama

  • Zod (validación de parámetros)

Licencia

Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.

One-click Deploy
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ruixingshi/deepseek-thinker-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server