Deepseek Thinker MCP サーバー
MCP(モデルコンテキストプロトコル)プロバイダーは、Claude DesktopなどのMCP対応AIクライアントにDeepseek推論コンテンツを提供します。Deepseek APIサービスまたはローカルOllamaサーバーからDeepseekの思考プロセスへのアクセスをサポートします。
コア機能
🤖デュアルモードサポート
OpenAI APIモードのサポート
Ollama ローカルモードのサポート
🎯集中的な推論
Deepseekの思考プロセスをキャプチャ
推論出力を提供する
Related MCP server: Multi-Model Advisor
利用可能なツール
ディープシークの思想家
説明: Deepseekモデルを使用して推論を実行します
入力パラメータ:
originPrompt(文字列): ユーザーの元のプロンプト
戻り値: 推論プロセスを含む構造化テキスト応答
環境設定
OpenAI APIモード
次の環境変数を設定します。
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>オラマモード
次の環境変数を設定します。
USE_OLLAMA=true使用法
Claude DesktopなどのAIクライアントとの統合
claude_desktop_config.jsonに次の構成を追加します。
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}Ollamaモードの使用
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}ローカルサーバーの構成
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}開発セットアップ
# Install dependencies
npm install
# Build project
npm run build
# Run service
node build/index.jsよくある質問
応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」
このエラーは、Deepseek API の応答が遅すぎる場合、または推論コンテンツの出力が長すぎる場合に発生し、MCP サーバーがタイムアウトになります。
技術スタック
タイプスクリプト
@モデルコンテキストプロトコル/sdk
オープンAI API
オラマ
Zod(パラメータ検証)
ライセンス
このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。
Resources
Looking for Admin?
Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.