remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Servidor MCP de DeepSeek
Un servidor de Protocolo de Contexto de Modelo (MCP) para la API de DeepSeek, que permite una integración perfecta de los potentes modelos de lenguaje de DeepSeek con aplicaciones compatibles con MCP como Claude Desktop.
Utilice la API de DeepSeek de forma anónima : solo se ve un proxy en el otro lado
Instalación
Instalación mediante herrería
Para instalar DeepSeek MCP Server para Claude Desktop automáticamente a través de Smithery :
Instalación manual
Uso con Claude Desktop
Agregue esto a su claude_desktop_config.json
:
Características
Nota: El servidor gestiona inteligentemente estas solicitudes de lenguaje natural, asignándolas a los cambios de configuración correspondientes. También puede consultar la configuración actual y los modelos disponibles:
- Usuario: "¿Qué modelos están disponibles?"
- Respuesta: Muestra la lista de modelos disponibles y sus capacidades a través del recurso de modelos.
- Usuario: "¿Qué opciones de configuración tengo?"
- Respuesta: enumera todas las opciones de configuración disponibles a través del recurso model-config.
- Usuario: "¿Cuál es la configuración de temperatura actual?"
- Respuesta: Muestra la configuración de temperatura actual.
- Usuario: "Iniciar una conversación multiturno. Con la siguiente configuración: modelo: 'deepseek-chat', que no sea demasiado creativa y permita 8000 tokens".
- Respuesta: inicia una conversación de varios turnos con la configuración especificada.
Retorno automático del modelo si R1 no funciona
- Si el modelo principal (R1) está inactivo (llamado
deepseek-reasoner
en el servidor), el servidor intentará automáticamente probar con v3 (llamadodeepseek-chat
en el servidor)
Nota: También puedes cambiar de un lado a otro en cualquier momento, simplemente dando tu mensaje y diciendo "usar
deepseek-reasoner
" o "usardeepseek-chat
".
- Se recomienda V3 para uso general, mientras que R1 se recomienda para consultas más técnicas y complejas, principalmente debido a la velocidad y el uso de tokens.
Descubrimiento de recursos para modelos y configuraciones disponibles:
- Selección de modelo personalizado
- Control de temperatura (0,0 - 2,0)
- Límite máximo de tokens
- Muestreo de P superior (0,0 - 1,0)
- Penalización de presencia (-2.0 - 2.0)
- Penalización de frecuencia (-2.0 - 2.0)
Funciones de conversación mejoradas
Soporte de conversación multi-turno:
- Mantiene el historial completo de mensajes y el contexto en todos los intercambios
- Conserva la configuración durante toda la conversación.
- Maneja flujos de diálogo complejos y cadenas de seguimiento automáticamente
Esta característica es particularmente valiosa para dos casos de uso clave:
- Entrenamiento y ajuste: Dado que DeepSeek es de código abierto, muchos usuarios entrenan sus propias versiones. La compatibilidad con múltiples turnos proporciona datos de conversación correctamente formateados, esenciales para entrenar modelos de diálogo de alta calidad.
- Interacciones complejas: para uso en producción, esto ayuda a gestionar conversaciones más largas donde el contexto es crucial:
- Problemas de razonamiento de varios pasos
- Sesiones interactivas de resolución de problemas
- Discusiones técnicas detalladas
- Cualquier escenario donde el contexto de mensajes anteriores afecte las respuestas posteriores
La implementación maneja toda la gestión del contexto y el formato de los mensajes detrás de escena, lo que le permite centrarse en la interacción real en lugar de en los detalles técnicos de mantener el estado de la conversación.
Pruebas con MCP Inspector
Puede probar el servidor localmente utilizando la herramienta MCP Inspector:
- Construir el servidor:Copy
- Ejecute el servidor con MCP Inspector:Copy
El inspector se abrirá en su navegador y se conectará al servidor mediante el transporte stdio. Puede:
- Ver herramientas disponibles
- Pruebe las finalizaciones de chat con diferentes parámetros
- Respuestas del servidor de depuración
- Supervisar el rendimiento del servidor
Nota: El servidor utiliza el modelo R1 de DeepSeek (deepseek-reasoner) de forma predeterminada, que proporciona un rendimiento de última generación para razonamiento y tareas generales.
Licencia
Instituto Tecnológico de Massachusetts (MIT)
You must be authenticated.
Permite la integración de los modelos de lenguaje de DeepSeek con aplicaciones compatibles con MCP, ofreciendo características como finalización de chat, selección de modelos personalizados y control de parámetros para mejorar las interacciones basadas en el lenguaje.
- Anonymously use DeepSeek API -- Only a proxy is seen on the other side
- Installation
- Features
- Enhanced Conversation Features
- Testing with MCP Inspector
- License