hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Deepseek Thinker MCP 서버
MCP(Model Context Protocol) 제공자는 Claude Desktop과 같은 MCP 지원 AI 클라이언트에 Deepseek 추론 콘텐츠를 제공합니다. Deepseek API 서비스 또는 로컬 Ollama 서버에서 Deepseek의 사고 과정에 접근할 수 있도록 지원합니다.
핵심 기능
- 🤖 듀얼 모드 지원
- OpenAI API 모드 지원
- Ollama 로컬 모드 지원
- 🎯 집중 추론
- Deepseek의 사고 과정을 포착합니다
- 추론 출력을 제공합니다
사용 가능한 도구
겟딥식싱크싱커
- 설명 : Deepseek 모델을 사용하여 추론을 수행합니다.
- 입력 매개변수 :
originPrompt
(문자열): 사용자의 원래 프롬프트
- 반환 : 추론 과정을 포함하는 구조화된 텍스트 응답
환경 구성
OpenAI API 모드
다음 환경 변수를 설정하세요.
지엑스피1
올라마 모드
다음 환경 변수를 설정하세요.
Copy
용법
Claude Desktop과 같은 AI 클라이언트와 통합
claude_desktop_config.json
에 다음 구성을 추가하세요.
Copy
올라마 모드 사용
Copy
로컬 서버 구성
Copy
개발 설정
Copy
자주 묻는 질문
다음과 같은 응답: "MCP 오류 -32001: 요청 시간이 초과되었습니다"
이 오류는 Deepseek API 응답이 너무 느리거나 추론 콘텐츠 출력이 너무 길어서 MCP 서버의 시간이 초과될 때 발생합니다.
기술 스택
- 타입스크립트
- @modelcontextprotocol/sdk
- 오픈AI API
- 올라마
- Zod(매개변수 검증)
특허
이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 라이선스 파일을 참조하세요.
You must be authenticated.
Tools
Deepseek의 API나 로컬 Ollama 서버와 인터페이싱하여 MCP 지원 AI 클라이언트에 추론 콘텐츠를 제공하고, 집중적인 추론 및 사고 과정 시각화를 지원합니다.