RAT MCP Server

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

딥시크-싱킹-클로드-3.5-소네트-클라인-MCP

DeepSeek R1의 추론 기능과 OpenRouter를 통한 Claude 3.5 Sonnet의 응답 생성 기능을 결합한 모델 컨텍스트 프로토콜(MCP) 서버입니다. 이 구현은 DeepSeek이 구조화된 추론을 제공하고, 이를 Claude의 응답 생성에 통합하는 2단계 프로세스를 사용합니다.

특징

  • 2단계 처리 :
    • 초기 추론을 위해 DeepSeek R1을 사용합니다(50k 문자 컨텍스트)
    • 최종 응답을 위해 Claude 3.5 Sonnet를 사용합니다(60만 자 컨텍스트)
    • 두 모델 모두 OpenRouter의 통합 API를 통해 접근 가능
    • DeepSeek의 추론 토큰을 Claude의 컨텍스트에 주입합니다.
  • 스마트 대화 관리 :
    • 파일 수정 시간을 사용하여 활성 대화를 감지합니다.
    • 여러 개의 동시 대화를 처리합니다
    • 종료된 대화를 자동으로 필터링합니다.
    • 필요할 때 컨텍스트 클리어링을 지원합니다.
  • 최적화된 매개변수 :
    • 모델별 컨텍스트 제한:
      • DeepSeek: 집중 추론을 위한 50,000자
      • Claude: 포괄적인 응답의 경우 60만 자
    • 권장 설정:
      • 온도: 균형 잡힌 창의성을 위한 0.7
      • top_p: 전체 확률 분포의 경우 1.0
      • repetition_penalty: 반복을 방지하기 위해 1.0

설치

Smithery를 통해 설치

Smithery를 통해 Claude Desktop에 DeepSeek Thinking with Claude 3.5 Sonnet을 자동으로 설치하려면:

지엑스피1

수동 설치

  1. 저장소를 복제합니다.
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
  1. 종속성 설치:
npm install
  1. OpenRouter API 키로 .env 파일을 만듭니다.
# Required: OpenRouter API key for both DeepSeek and Claude models OPENROUTER_API_KEY=your_openrouter_api_key_here # Optional: Model configuration (defaults shown below) DEEPSEEK_MODEL=deepseek/deepseek-r1 # DeepSeek model for reasoning CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta # Claude model for responses
  1. 서버를 빌드하세요:
npm run build

Cline과 함께 사용

Cline MCP 설정에 다음을 추가합니다(일반적으로 ~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json ).

{ "mcpServers": { "deepseek-claude": { "command": "/path/to/node", "args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"], "env": { "OPENROUTER_API_KEY": "your_key_here" }, "disabled": false, "autoApprove": [] } } }

도구 사용

서버는 응답을 생성하고 모니터링하기 위한 두 가지 도구를 제공합니다.

응답 생성

다음 매개변수를 사용하여 응답을 생성하는 주요 도구:

{ "prompt": string, // Required: The question or prompt "showReasoning"?: boolean, // Optional: Show DeepSeek's reasoning process "clearContext"?: boolean, // Optional: Clear conversation history "includeHistory"?: boolean // Optional: Include Cline conversation history }

응답_상태_확인

응답 생성 작업 상태를 확인하는 도구:

{ "taskId": string // Required: The task ID from generate_response }

응답 폴링

서버는 폴링 메커니즘을 사용하여 장기 실행 요청을 처리합니다.

  1. 초기 요청:
    • generate_response 작업 ID와 함께 즉시 반환됩니다.
    • 응답 형식: {"taskId": "uuid-here"}
  2. 상태 확인:
    • check_response_status 사용하여 작업 상태를 폴링합니다.
    • 참고: 응답을 완료하는 데 최대 60초가 걸릴 수 있습니다.
    • 상태는 보류 → 추론 → 응답 → 완료 순으로 진행됩니다.

Cline에서의 사용 예:

// Initial request const result = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "generate_response", arguments: { prompt: "What is quantum computing?", showReasoning: true } }); // Get taskId from result const taskId = JSON.parse(result.content[0].text).taskId; // Poll for status (may need multiple checks over ~60 seconds) const status = await use_mcp_tool({ server_name: "deepseek-claude", tool_name: "check_response_status", arguments: { taskId } }); // Example status response when complete: { "status": "complete", "reasoning": "...", // If showReasoning was true "response": "..." // The final response }

개발

자동 재빌드를 사용한 개발의 경우:

npm run watch

작동 원리

  1. 추론 단계(DeepSeek R1) :
    • OpenRouter의 추론 토큰 기능을 사용합니다.
    • 추론을 캡처하는 동안 프롬프트가 '완료'를 출력하도록 수정되었습니다.
    • 추론은 응답 메타데이터에서 추출됩니다.
  2. 반응 단계(클로드 3.5 소네트) :
    • 원래 프롬프트와 DeepSeek의 추론을 수신합니다.
    • 추론을 통합하여 최종 응답을 생성합니다.
    • 대화 맥락과 기록을 유지합니다.

특허

MIT 라이센스 - 자세한 내용은 라이센스 파일을 참조하세요.

크레딧

스키라노 의 RAT(Retrieval Augmented Thinking) 개념을 기반으로, 구조화된 추론과 지식 검색을 통해 AI의 대응을 강화합니다.

이 구현은 DeepSeek R1의 추론 기능과 OpenRouter의 통합 API를 통한 Claude 3.5 Sonnet의 응답 생성 기능을 특별히 결합합니다.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

DeepSeek을 사용하여 세부적인 분석을 위한 2단계 추론 프로세스를 용이하게 하고 Claude 3.5 Sonnet 및 OpenRouter와 같은 여러 응답 모델을 지원하여 대화 맥락을 유지하고 AI 기반 상호 작용을 향상시킵니다.

  1. Features
    1. Installation
      1. Installing via Smithery
      2. Manual Installation
    2. Usage with Cline
      1. Tool Usage
        1. generate_response
        2. check_response_status
        3. Response Polling
      2. Development
        1. How It Works
          1. License
            1. Credits
              ID: t0ykwg3k7n