Servidor MCP Deepseek R1
Implementación de servidor del Protocolo de Contexto de Modelo (MCP) para el modelo de lenguaje Deepseek R1. Deepseek R1 es un potente modelo de lenguaje optimizado para tareas de razonamiento con una ventana de contexto de 8192 tokens.
¿Por qué Node.js? Esta implementación utiliza Node.js/TypeScript, ya que proporciona la integración más estable con servidores MCP. El SDK de Node.js ofrece mayor seguridad de tipos, gestión de errores y compatibilidad con Claude Desktop.
Inicio rápido
Instalación manual
# Clone and install
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
# Set up environment
cp .env.example .env # Then add your API key
# Build and run
npm run buildRelated MCP server: DuckDuckGo MCP Server
Prerrequisitos
Node.js (v18 o superior)
npm
Escritorio de Claude
Clave API de Deepseek
Selección de modelos
De forma predeterminada, este servidor utiliza el modelo deepseek-R1 . Si prefiere usar DeepSeek-V3 , modifique el nombre del modelo en src/index.ts :
// For DeepSeek-R1 (default)
model: "deepseek-reasoner"
// For DeepSeek-V3
model: "deepseek-chat"Estructura del proyecto
deepseek-r1-mcp/
├── src/
│ ├── index.ts # Main server implementation
├── build/ # Compiled files
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.jsonConfiguración
Crea un archivo
.env:
DEEPSEEK_API_KEY=your-api-key-hereActualizar la configuración de Claude Desktop:
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}Desarrollo
npm run dev # Watch mode
npm run build # Build for productionCaracterísticas
Generación avanzada de texto con Deepseek R1 (ventana de contexto de token 8192)
Parámetros configurables (max_tokens, temperatura)
Manejo robusto de errores con mensajes de error detallados
Compatibilidad total con el protocolo MCP
Integración de Claude Desktop
Compatibilidad con los modelos DeepSeek-R1 y DeepSeek-V3
Uso de la API
{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // Maximum tokens to generate
"temperature": 0.2 // Controls randomness
}
}El parámetro de temperatura
El valor predeterminado de temperature es 0,2.
Deepseek recomienda configurar la temperature según su caso de uso específico:
CASO DE USO | TEMPERATURA | EJEMPLO |
Codificación / Matemáticas | 0.0 | Generación de código, cálculos matemáticos |
Limpieza de datos / Análisis de datos | 1.0 | Tareas de procesamiento de datos |
Conversación general | 1.3 | Chat y diálogo |
Traducción | 1.3 | Traducción de idiomas |
Escritura creativa / poesía | 1.5 | Escritura de cuentos, generación de poesía |
Manejo de errores
El servidor proporciona mensajes de error detallados para problemas comunes:
Errores de autenticación de API
Parámetros no válidos
Limitación de velocidad
Problemas de red
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
Licencia
Instituto Tecnológico de Massachusetts (MIT)