Skip to main content
Glama

Deepseek Thinker MCP Server

by ruixingshi

Servidor MCP de Deepseek Thinker

Un proveedor MCP (Protocolo de Contexto de Modelo) que proporciona contenido de razonamiento de Deepseek a clientes de IA compatibles con MCP, como Claude Desktop. Permite el acceso a los procesos de pensamiento de Deepseek desde el servicio API de Deepseek o desde un servidor Ollama local.

Características principales

  • 🤖 Soporte de modo dual
    • Compatibilidad con el modo API de OpenAI
    • Compatibilidad con el modo local de Ollama
  • 🎯 Razonamiento enfocado
    • Captura el proceso de pensamiento de Deepseek
    • Proporciona una salida de razonamiento

Herramientas disponibles

pensador de búsqueda profunda

  • Descripción : Realice razonamiento utilizando el modelo Deepseek
  • Parámetros de entrada :
    • originPrompt (cadena): mensaje original del usuario
  • Devuelve : Respuesta de texto estructurada que contiene el proceso de razonamiento

Configuración del entorno

Modo API de OpenAI

Establezca las siguientes variables de entorno:

API_KEY=<Your OpenAI API Key> BASE_URL=<API Base URL>

Modo Ollama

Establezca la siguiente variable de entorno:

USE_OLLAMA=true

Uso

Integración con AI Client, como Claude Desktop

Agregue la siguiente configuración a su claude_desktop_config.json :

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

Usando el modo Ollama

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "USE_OLLAMA": "true" } } } }

Configuración del servidor local

{ "mcpServers": { "deepseek-thinker": { "command": "node", "args": [ "/your-path/deepseek-thinker-mcp/build/index.js" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

Configuración de desarrollo

# Install dependencies npm install # Build project npm run build # Run service node build/index.js

Preguntas frecuentes

Respuesta como esta: "Error MCP -32001: Se agotó el tiempo de solicitud"

Este error ocurre cuando la respuesta de la API de Deepseek es demasiado lenta o cuando la salida del contenido del razonamiento es demasiado larga, lo que provoca que el servidor MCP agote el tiempo de espera.

Pila tecnológica

  • Mecanografiado
  • @modelcontextprotocol/sdk
  • API de OpenAI
  • Ollama
  • Zod (validación de parámetros)

Licencia

Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Proporciona contenido de razonamiento a clientes de IA habilitados para MCP mediante la interfaz con la API de Deepseek o un servidor Ollama local, lo que permite un razonamiento enfocado y la visualización del proceso de pensamiento.

  1. Características principales
    1. Herramientas disponibles
      1. pensador de búsqueda profunda
    2. Configuración del entorno
      1. Modo API de OpenAI
      2. Modo Ollama
    3. Uso
      1. Integración con AI Client, como Claude Desktop
      2. Usando el modo Ollama
      3. Configuración del servidor local
    4. Configuración de desarrollo
      1. Preguntas frecuentes
        1. Respuesta como esta: "Error MCP -32001: Se agotó el tiempo de solicitud"
      2. Pila tecnológica
        1. Licencia

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            A minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.
            Last updated -
            525
            1
            TypeScript
            MIT License
            • Apple
          • A
            security
            A
            license
            A
            quality
            AoT MCP server enables AI models to solve complex reasoning problems by decomposing them into independent, reusable atomic units of thought, featuring a powerful decomposition-contraction mechanism that allows for deep exploration of problem spaces while maintaining high confidence in conclusions.
            Last updated -
            3
            25
            JavaScript
            MIT License
            • Apple
            • Linux
          • A
            security
            A
            license
            A
            quality
            A sophisticated MCP server that provides a multi-dimensional, adaptive reasoning framework for AI assistants, replacing linear reasoning with a graph-based architecture for more nuanced cognitive processes.
            Last updated -
            1
            174
            13
            TypeScript
            MIT License
            • Apple
            • Linux
          • -
            security
            A
            license
            -
            quality
            An MCP server that connects to Pollinations.ai API, enabling AI models to generate and download images and text through natural language commands.
            Last updated -
            2
            JavaScript
            Apache 2.0
            • Apple
            • Linux

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/ruixingshi/deepseek-thinker-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server