Deepseek Thinker MCP Server

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Provides access to Deepseek reasoning content through a local Ollama server

  • Provides access to Deepseek reasoning content through OpenAI API

Deepseek Thinker MCP サーバー

MCP(モデルコンテキストプロトコル)プロバイダーは、Claude DesktopなどのMCP対応AIクライアントにDeepseek推論コンテンツを提供します。Deepseek APIサービスまたはローカルOllamaサーバーからDeepseekの思考プロセスへのアクセスをサポートします。

コア機能

  • 🤖デュアルモードサポート
    • OpenAI APIモードのサポート
    • Ollama ローカルモードのサポート
  • 🎯集中的な推論
    • Deepseekの思考プロセスをキャプチャ
    • 推論出力を提供する

利用可能なツール

ディープシークの思想家

  • 説明: Deepseekモデルを使用して推論を実行します
  • 入力パラメータ:
    • originPrompt (文字列): ユーザーの元のプロンプト
  • 戻り値: 推論プロセスを含む構造化テキスト応答

環境設定

OpenAI APIモード

次の環境変数を設定します。

API_KEY=<Your OpenAI API Key> BASE_URL=<API Base URL>

オラマモード

次の環境変数を設定します。

USE_OLLAMA=true

使用法

Claude DesktopなどのAIクライアントとの統合

claude_desktop_config.jsonに次の構成を追加します。

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

Ollamaモードの使用

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "USE_OLLAMA": "true" } } } }

ローカルサーバーの構成

{ "mcpServers": { "deepseek-thinker": { "command": "node", "args": [ "/your-path/deepseek-thinker-mcp/build/index.js" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

開発セットアップ

# Install dependencies npm install # Build project npm run build # Run service node build/index.js

よくある質問

応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」

このエラーは、Deepseek API の応答が遅すぎる場合、または推論コンテンツの出力が長すぎる場合に発生し、MCP サーバーがタイムアウトになります。

技術スタック

  • タイプスクリプト
  • @モデルコンテキストプロトコル/sdk
  • オープンAI API
  • オラマ
  • Zod(パラメータ検証)

ライセンス

このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Deepseek の API またはローカル Ollama サーバーとインターフェイスすることで、MCP 対応 AI クライアントに推論コンテンツを提供し、集中的な推論と思考プロセスの視覚化を可能にします。

  1. Core Features
    1. Available Tools
      1. get-deepseek-thinker
    2. Environment Configuration
      1. OpenAI API Mode
      2. Ollama Mode
    3. Usage
      1. Integration with AI Client, like Claude Desktop
      2. Using Ollama Mode
      3. Local Server Configuration
    4. Development Setup
      1. FAQ
        1. Response like this: "MCP error -32001: Request timed out"
      2. Tech Stack
        1. License
          ID: d7spzsfuwz