Skip to main content
Glama

DeepSeek MCP Server

Servidor MCP de DeepSeek

Un servidor de Protocolo de Contexto de Modelo (MCP) para la API de DeepSeek, que permite una integración perfecta de los potentes modelos de lenguaje de DeepSeek con aplicaciones compatibles con MCP como Claude Desktop.

Utilice la API de DeepSeek de forma anónima : solo se ve un proxy en el otro lado

Instalación

Instalación mediante herrería

Para instalar DeepSeek MCP Server para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

Instalación manual

npm install -g deepseek-mcp-server

Uso con Claude Desktop

Agregue esto a su claude_desktop_config.json :

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

Características

Nota: El servidor gestiona inteligentemente estas solicitudes de lenguaje natural, asignándolas a los cambios de configuración correspondientes. También puede consultar la configuración actual y los modelos disponibles:

  • Usuario: "¿Qué modelos están disponibles?"
    • Respuesta: Muestra la lista de modelos disponibles y sus capacidades a través del recurso de modelos.
  • Usuario: "¿Qué opciones de configuración tengo?"
    • Respuesta: enumera todas las opciones de configuración disponibles a través del recurso model-config.
  • Usuario: "¿Cuál es la configuración de temperatura actual?"
    • Respuesta: Muestra la configuración de temperatura actual.
  • Usuario: "Iniciar una conversación multiturno. Con la siguiente configuración: modelo: 'deepseek-chat', que no sea demasiado creativa y permita 8000 tokens".
    • Respuesta: inicia una conversación de varios turnos con la configuración especificada.

Retorno automático del modelo si R1 no funciona

  • Si el modelo principal (R1) está inactivo (llamado deepseek-reasoner en el servidor), el servidor intentará automáticamente probar con v3 (llamado deepseek-chat en el servidor)

Nota: También puedes cambiar de un lado a otro en cualquier momento, simplemente dando tu mensaje y diciendo "usar deepseek-reasoner " o "usar deepseek-chat ".

  • Se recomienda V3 para uso general, mientras que R1 se recomienda para consultas más técnicas y complejas, principalmente debido a la velocidad y el uso de tokens.

Descubrimiento de recursos para modelos y configuraciones disponibles:

  • Selección de modelo personalizado
  • Control de temperatura (0,0 - 2,0)
  • Límite máximo de tokens
  • Muestreo de P superior (0,0 - 1,0)
  • Penalización de presencia (-2.0 - 2.0)
  • Penalización de frecuencia (-2.0 - 2.0)

Funciones de conversación mejoradas

Soporte de conversación multi-turno:

  • Mantiene el historial completo de mensajes y el contexto en todos los intercambios
  • Conserva la configuración durante toda la conversación.
  • Maneja flujos de diálogo complejos y cadenas de seguimiento automáticamente

Esta característica es particularmente valiosa para dos casos de uso clave:

  1. Entrenamiento y ajuste: Dado que DeepSeek es de código abierto, muchos usuarios entrenan sus propias versiones. La compatibilidad con múltiples turnos proporciona datos de conversación correctamente formateados, esenciales para entrenar modelos de diálogo de alta calidad.
  2. Interacciones complejas: para uso en producción, esto ayuda a gestionar conversaciones más largas donde el contexto es crucial:
    • Problemas de razonamiento de varios pasos
    • Sesiones interactivas de resolución de problemas
    • Discusiones técnicas detalladas
    • Cualquier escenario donde el contexto de mensajes anteriores afecte las respuestas posteriores

La implementación maneja toda la gestión del contexto y el formato de los mensajes detrás de escena, lo que le permite centrarse en la interacción real en lugar de en los detalles técnicos de mantener el estado de la conversación.

Pruebas con MCP Inspector

Puede probar el servidor localmente utilizando la herramienta MCP Inspector:

  1. Construir el servidor:
    npm run build
  2. Ejecute el servidor con MCP Inspector:
    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

El inspector se abrirá en su navegador y se conectará al servidor mediante el transporte stdio. Puede:

  • Ver herramientas disponibles
  • Pruebe las finalizaciones de chat con diferentes parámetros
  • Respuestas del servidor de depuración
  • Supervisar el rendimiento del servidor

Nota: El servidor utiliza el modelo R1 de DeepSeek (deepseek-reasoner) de forma predeterminada, que proporciona un rendimiento de última generación para razonamiento y tareas generales.

Licencia

Instituto Tecnológico de Massachusetts (MIT)

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Permite la integración de los modelos de lenguaje de DeepSeek con aplicaciones compatibles con MCP, ofreciendo características como finalización de chat, selección de modelos personalizados y control de parámetros para mejorar las interacciones basadas en el lenguaje.

  1. Utilice la API de DeepSeek de forma anónima : solo se ve un proxy en el otro lado
    1. Instalación
      1. Instalación mediante herrería
      2. Instalación manual
      3. Uso con Claude Desktop
    2. Características
      1. Retorno automático del modelo si R1 no funciona
      2. Descubrimiento de recursos para modelos y configuraciones disponibles:
    3. Funciones de conversación mejoradas
      1. Pruebas con MCP Inspector
        1. Licencia

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            Facilitates two-stage reasoning processes using DeepSeek for detailed analysis and supports multiple response models such as Claude 3.5 Sonnet and OpenRouter, maintaining conversation context and enhancing AI-driven interactions.
            Last updated -
            2
            101
            JavaScript
            MIT License
          • A
            security
            A
            license
            A
            quality
            A Node.js/TypeScript implementation of a Model Context Protocol server for the Deepseek R1 language model, optimized for reasoning tasks with a large context window and fully integrated with Claude Desktop.
            Last updated -
            1
            40
            JavaScript
            MIT License
            • Apple
            • Linux
          • A
            security
            A
            license
            A
            quality
            An MCP (Model Context Protocol) server that integrates with the ArgoCD API, enabling AI assistants and large language models to manage ArgoCD applications and resources through natural language interactions.
            Last updated -
            10
            6
            Python
            MIT License
            • Linux
            • Apple
          • A
            security
            A
            license
            A
            quality
            A Model Context Protocol server that combines DeepSeek R1's reasoning capabilities with Claude 3.5 Sonnet's response generation, enabling two-stage AI processing where DeepSeek's structured reasoning enhances Claude's final outputs.
            Last updated -
            2
            JavaScript
            MIT License

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/DMontgomery40/deepseek-mcp-server'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server