Skip to main content
Glama

DeepSeek MCP 서버

DeepSeek API를 위한 MCP(Model Context Protocol) 서버는 DeepSeek의 강력한 언어 모델을 Claude Desktop과 같은 MCP 호환 애플리케이션과 원활하게 통합할 수 있게 해줍니다.

익명으로 DeepSeek API를 사용합니다 -- 반대편에서는 프록시만 보입니다.

npm 버전 npm 다운로드 GitHub 문제 GitHub 포크 GitHub 별점 GitHub 라이센스

설치

Smithery를 통해 설치

Smithery를 통해 Claude Desktop에 DeepSeek MCP 서버를 자동으로 설치하려면:

지엑스피1

수동 설치

npm install -g deepseek-mcp-server

Claude Desktop과 함께 사용

claude_desktop_config.json 에 다음을 추가하세요:

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

특징

참고: 서버는 이러한 자연어 요청을 적절한 구성 변경 사항에 매핑하여 지능적으로 처리합니다. 현재 설정 및 사용 가능한 모델을 쿼리할 수도 있습니다.

  • 사용자: "어떤 모델이 있나요?"

    • 응답: 모델 리소스를 통해 사용 가능한 모델과 해당 기능 목록을 보여줍니다.

  • 사용자: "어떤 구성 옵션이 있나요?"

    • 응답: model-config 리소스를 통해 사용 가능한 모든 구성 옵션을 나열합니다.

  • 사용자: "현재 온도 설정은 어떻게 되나요?"

    • 응답: 현재 온도 설정을 표시합니다.

  • 사용자: "다중 턴 대화를 시작하세요. 다음 설정을 사용하세요: 모델: 'deepseek-chat', 너무 창의적이지 않게 설정하고, 토큰은 8000개까지 허용하세요."

    • 응답: 지정된 설정으로 다중 턴 대화를 시작합니다.

R1이 다운되면 자동 모델 폴백

  • 기본 모델(R1)이 다운되면(서버에서 deepseek-reasoner 라고 함) 서버는 자동으로 v3(서버에서 deepseek-chat 라고 함)을 시도합니다.

참고: 프롬프트를 제공하고 "use deepseek-reasoner " 또는 "use deepseek-chat "이라고 말하면 언제든지 앞뒤로 전환할 수 있습니다.

  • V3는 일반적인 용도에 권장되는 반면, R1은 속도와 토큰 사용 측면에서 주로 기술적이고 복잡한 쿼리에 권장됩니다.

사용 가능한 모델 및 구성에 대한 리소스 검색:

  • 사용자 정의 모델 선택

  • 온도 조절(0.0~2.0)

  • 최대 토큰 한도

  • 상위 P 샘플링(0.0~1.0)

  • 존재 패널티(-2.0 - 2.0)

  • 빈도 페널티(-2.0 - 2.0)

향상된 대화 기능

다중 턴 대화 지원:

  • 교환 전반에 걸쳐 완전한 메시지 기록과 컨텍스트를 유지합니다.

  • 대화 내내 구성 설정을 유지합니다.

  • 복잡한 대화 흐름과 후속 조치를 자동으로 처리합니다.

이 기능은 특히 두 가지 주요 사용 사례에 유용합니다.

  1. 학습 및 미세 조정: DeepSeek은 오픈 소스이므로 많은 사용자가 자체 버전을 학습하고 있습니다. 멀티턴 지원은 고품질 대화 모델 학습에 필수적인 적절한 형식의 대화 데이터를 제공합니다.

  2. 복잡한 상호작용: 프로덕션 환경에서는 맥락이 중요한 긴 대화를 관리하는 데 도움이 됩니다.

    • 다단계 추론 문제

    • 대화형 문제 해결 세션

    • 자세한 기술 토론

    • 이전 메시지의 컨텍스트가 이후 응답에 영향을 미치는 모든 시나리오

구현에서는 모든 컨텍스트 관리와 메시지 서식 지정을 백그라운드에서 처리하므로 대화 상태를 유지하는 데 필요한 기술적 세부 사항이 아닌 실제 상호 작용에 집중할 수 있습니다.

MCP Inspector로 테스트

MCP Inspector 도구를 사용하여 로컬로 서버를 테스트할 수 있습니다.

  1. 서버를 빌드하세요:

    npm run build
  2. MCP Inspector로 서버를 실행합니다.

    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

검사기가 브라우저에서 열리고 stdio 전송을 통해 서버에 연결됩니다. 다음 작업을 수행할 수 있습니다.

  • 사용 가능한 도구 보기

  • 다양한 매개변수로 채팅 완료 테스트

  • 디버그 서버 응답

  • 서버 성능 모니터링

참고: 서버는 기본적으로 DeepSeek의 R1 모델(deepseek-reasoner)을 사용하는데, 이는 추론 및 일반 작업에 대해 최첨단 성능을 제공합니다.

특허

MIT

Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    Enables integration of DeepSeek's language models with MCP-compatible applications, offering features like chat completion, custom model selection, and parameter control for enhancing language-based interactions.
    Last updated -
    27
    283
    MIT License
  • A
    security
    A
    license
    A
    quality
    Enables integration with OpenAI models through the MCP protocol, supporting concise and detailed responses for use with Claude Desktop.
    Last updated -
    4
    MIT License
    • Apple
    • Linux
  • -
    security
    A
    license
    -
    quality
    A Model Control Protocol server implementation that allows Claude Desktop to use Deepseek models running in Docker, enabling seamless integration between Claude Desktop and Deepseek's language models.
    Last updated -
    4
    MIT License
  • A
    security
    F
    license
    A
    quality
    A server built on mcp-framework that enables integration with Claude Desktop through the Model Context Protocol.
    Last updated -
    1
    1
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/liuchongchong1995/deepseek-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server