Deepseek Thinker MCP Server
Deepseek Thinker MCP サーバー
MCP(モデルコンテキストプロトコル)プロバイダーは、Claude DesktopなどのMCP対応AIクライアントにDeepseek推論コンテンツを提供します。Deepseek APIサービスまたはローカルOllamaサーバーからDeepseekの思考プロセスへのアクセスをサポートします。
コア機能
🤖デュアルモードサポート
OpenAI APIモードのサポート
Ollama ローカルモードのサポート
🎯集中的な推論
Deepseekの思考プロセスをキャプチャ
推論出力を提供する
Related MCP server: Multi-Model Advisor
利用可能なツール
ディープシークの思想家
説明: Deepseekモデルを使用して推論を実行します
入力パラメータ:
originPrompt(文字列): ユーザーの元のプロンプト
戻り値: 推論プロセスを含む構造化テキスト応答
環境設定
OpenAI APIモード
次の環境変数を設定します。
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>オラマモード
次の環境変数を設定します。
USE_OLLAMA=true使用法
Claude DesktopなどのAIクライアントとの統合
claude_desktop_config.jsonに次の構成を追加します。
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}Ollamaモードの使用
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}ローカルサーバーの構成
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}開発セットアップ
# Install dependencies
npm install
# Build project
npm run build
# Run service
node build/index.jsよくある質問
応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」
このエラーは、Deepseek API の応答が遅すぎる場合、または推論コンテンツの出力が長すぎる場合に発生し、MCP サーバーがタイムアウトになります。
技術スタック
タイプスクリプト
@モデルコンテキストプロトコル/sdk
オープンAI API
オラマ
Zod(パラメータ検証)
ライセンス
このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。
Maintenance
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Tools
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/ruixingshi/deepseek-thinker-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server