Pensamiento profundo de Claude 3.5 Soneto CLINE MCP
Un servidor de Protocolo de Contexto de Modelo (MCP) que combina las capacidades de razonamiento de DeepSeek R1 con la generación de respuestas de Claude 3.5 Sonnet mediante OpenRouter. Esta implementación utiliza un proceso de dos etapas donde DeepSeek proporciona razonamiento estructurado que posteriormente se incorpora a la generación de respuestas de Claude.
Características
Procesamiento en dos etapas :
Utiliza DeepSeek R1 para el razonamiento inicial (contexto de 50k caracteres)
Utiliza el soneto Claude 3.5 para la respuesta final (contexto de 600 000 caracteres)
Se accede a ambos modelos a través de la API unificada de OpenRouter
Inyecta los tokens de razonamiento de DeepSeek en el contexto de Claude
Gestión inteligente de conversaciones :
Detecta conversaciones activas utilizando tiempos de modificación de archivos
Maneja múltiples conversaciones simultáneas
Filtra automáticamente las conversaciones finalizadas
Admite la limpieza del contexto cuando es necesario
Parámetros optimizados :
Límites del contexto específico del modelo:
DeepSeek: 50.000 caracteres para un razonamiento enfocado
Claude: 600.000 caracteres para respuestas completas
Configuraciones recomendadas:
Temperatura: 0,7 para una creatividad equilibrada
top_p: 1.0 para distribución de probabilidad completa
repetition_penalty: 1.0 para evitar la repetición
Related MCP server: DeepClaude MCP Server
Instalación
Instalación mediante herrería
Para instalar DeepSeek Thinking con Claude 3.5 Sonnet para Claude Desktop automáticamente a través de Smithery :
npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claudeInstalación manual
Clonar el repositorio:
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCPInstalar dependencias:
npm installCree un archivo
.envcon su clave API de OpenRouter:
# Required: OpenRouter API key for both DeepSeek and Claude models
OPENROUTER_API_KEY=your_openrouter_api_key_here
# Optional: Model configuration (defaults shown below)
DEEPSEEK_MODEL=deepseek/deepseek-r1 # DeepSeek model for reasoning
CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta # Claude model for responsesConstruir el servidor:
npm run buildUso con Cline
Agregue a su configuración de Cline MCP (generalmente en ~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json ):
{
"mcpServers": {
"deepseek-claude": {
"command": "/path/to/node",
"args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"],
"env": {
"OPENROUTER_API_KEY": "your_key_here"
},
"disabled": false,
"autoApprove": []
}
}
}Uso de herramientas
El servidor proporciona dos herramientas para generar y supervisar respuestas:
generar_respuesta
Herramienta principal para generar respuestas con los siguientes parámetros:
{
"prompt": string, // Required: The question or prompt
"showReasoning"?: boolean, // Optional: Show DeepSeek's reasoning process
"clearContext"?: boolean, // Optional: Clear conversation history
"includeHistory"?: boolean // Optional: Include Cline conversation history
}comprobar_estado_de_respuesta
Herramienta para comprobar el estado de una tarea de generación de respuesta:
{
"taskId": string // Required: The task ID from generate_response
}Encuesta de respuesta
El servidor utiliza un mecanismo de sondeo para gestionar solicitudes de larga duración:
Solicitud inicial:
generate_responseregresa inmediatamente con un ID de tareaFormato de respuesta:
{"taskId": "uuid-here"}
Comprobación de estado:
Utilice
check_response_statuspara sondear el estado de la tareaNota: Las respuestas pueden tardar hasta 60 segundos en completarse.
El estado progresa a través de: pendiente → razonamiento → respondiendo → completo
Ejemplo de uso en Cline:
// Initial request
const result = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "generate_response",
arguments: {
prompt: "What is quantum computing?",
showReasoning: true
}
});
// Get taskId from result
const taskId = JSON.parse(result.content[0].text).taskId;
// Poll for status (may need multiple checks over ~60 seconds)
const status = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "check_response_status",
arguments: { taskId }
});
// Example status response when complete:
{
"status": "complete",
"reasoning": "...", // If showReasoning was true
"response": "..." // The final response
}Desarrollo
Para desarrollo con reconstrucción automática:
npm run watchCómo funciona
Etapa de razonamiento (DeepSeek R1) :
Utiliza la función de tokens de razonamiento de OpenRouter
El mensaje se modifica para mostrar "hecho" mientras se captura el razonamiento
El razonamiento se extrae de los metadatos de respuesta.
Etapa de respuesta (Soneto Claude 3.5) :
Recibe el mensaje original y el razonamiento de DeepSeek
Genera una respuesta final incorporando el razonamiento
Mantiene el contexto y el historial de la conversación.
Licencia
Licencia MIT: consulte el archivo LICENCIA para obtener más detalles.
Créditos
Basado en el concepto RAT (Retrieval Augmented Thinking) de Skirano , que mejora las respuestas de la IA a través del razonamiento estructurado y la recuperación de conocimiento.
Esta implementación combina específicamente las capacidades de razonamiento de DeepSeek R1 con la generación de respuestas de Claude 3.5 Sonnet a través de la API unificada de OpenRouter.
Resources
Looking for Admin?
Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.