DeepSeek MCP Server

by DMontgomery40
Verified

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Servidor MCP de DeepSeek

Un servidor de Protocolo de Contexto de Modelo (MCP) para la API de DeepSeek, que permite una integración perfecta de los potentes modelos de lenguaje de DeepSeek con aplicaciones compatibles con MCP como Claude Desktop.

Utilice la API de DeepSeek de forma anónima : solo se ve un proxy en el otro lado

Instalación

Instalación mediante herrería

Para instalar DeepSeek MCP Server para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

Instalación manual

npm install -g deepseek-mcp-server

Uso con Claude Desktop

Agregue esto a su claude_desktop_config.json :

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

Características

Nota: El servidor gestiona inteligentemente estas solicitudes de lenguaje natural, asignándolas a los cambios de configuración correspondientes. También puede consultar la configuración actual y los modelos disponibles:

  • Usuario: "¿Qué modelos están disponibles?"
    • Respuesta: Muestra la lista de modelos disponibles y sus capacidades a través del recurso de modelos.
  • Usuario: "¿Qué opciones de configuración tengo?"
    • Respuesta: enumera todas las opciones de configuración disponibles a través del recurso model-config.
  • Usuario: "¿Cuál es la configuración de temperatura actual?"
    • Respuesta: Muestra la configuración de temperatura actual.
  • Usuario: "Iniciar una conversación multiturno. Con la siguiente configuración: modelo: 'deepseek-chat', que no sea demasiado creativa y permita 8000 tokens".
    • Respuesta: inicia una conversación de varios turnos con la configuración especificada.

Retorno automático del modelo si R1 no funciona

  • Si el modelo principal (R1) está inactivo (llamado deepseek-reasoner en el servidor), el servidor intentará automáticamente probar con v3 (llamado deepseek-chat en el servidor)

Nota: También puedes cambiar de un lado a otro en cualquier momento, simplemente dando tu mensaje y diciendo "usar deepseek-reasoner " o "usar deepseek-chat ".

  • Se recomienda V3 para uso general, mientras que R1 se recomienda para consultas más técnicas y complejas, principalmente debido a la velocidad y el uso de tokens.

Descubrimiento de recursos para modelos y configuraciones disponibles:

  • Selección de modelo personalizado
  • Control de temperatura (0,0 - 2,0)
  • Límite máximo de tokens
  • Muestreo de P superior (0,0 - 1,0)
  • Penalización de presencia (-2.0 - 2.0)
  • Penalización de frecuencia (-2.0 - 2.0)

Funciones de conversación mejoradas

Soporte de conversación multi-turno:

  • Mantiene el historial completo de mensajes y el contexto en todos los intercambios
  • Conserva la configuración durante toda la conversación.
  • Maneja flujos de diálogo complejos y cadenas de seguimiento automáticamente

Esta característica es particularmente valiosa para dos casos de uso clave:

  1. Entrenamiento y ajuste: Dado que DeepSeek es de código abierto, muchos usuarios entrenan sus propias versiones. La compatibilidad con múltiples turnos proporciona datos de conversación correctamente formateados, esenciales para entrenar modelos de diálogo de alta calidad.
  2. Interacciones complejas: para uso en producción, esto ayuda a gestionar conversaciones más largas donde el contexto es crucial:
    • Problemas de razonamiento de varios pasos
    • Sesiones interactivas de resolución de problemas
    • Discusiones técnicas detalladas
    • Cualquier escenario donde el contexto de mensajes anteriores afecte las respuestas posteriores

La implementación maneja toda la gestión del contexto y el formato de los mensajes detrás de escena, lo que le permite centrarse en la interacción real en lugar de en los detalles técnicos de mantener el estado de la conversación.

Pruebas con MCP Inspector

Puede probar el servidor localmente utilizando la herramienta MCP Inspector:

  1. Construir el servidor:
    npm run build
  2. Ejecute el servidor con MCP Inspector:
    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

El inspector se abrirá en su navegador y se conectará al servidor mediante el transporte stdio. Puede:

  • Ver herramientas disponibles
  • Pruebe las finalizaciones de chat con diferentes parámetros
  • Respuestas del servidor de depuración
  • Supervisar el rendimiento del servidor

Nota: El servidor utiliza el modelo R1 de DeepSeek (deepseek-reasoner) de forma predeterminada, que proporciona un rendimiento de última generación para razonamiento y tareas generales.

Licencia

Instituto Tecnológico de Massachusetts (MIT)

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Permite la integración de los modelos de lenguaje de DeepSeek con aplicaciones compatibles con MCP, ofreciendo características como finalización de chat, selección de modelos personalizados y control de parámetros para mejorar las interacciones basadas en el lenguaje.

  1. Anonymously use DeepSeek API -- Only a proxy is seen on the other side
    1. Installation
      1. Installing via Smithery
      2. Manual Installation
      3. Usage with Claude Desktop
    2. Features
      1. Automatic Model Fallback if R1 is down
      2. Resource discovery for available models and configurations:
    3. Enhanced Conversation Features
      1. Testing with MCP Inspector
        1. License
          ID: asht4rqltn