Deepseek Thinker MCP サーバー
MCP(モデルコンテキストプロトコル)プロバイダーは、Claude DesktopなどのMCP対応AIクライアントにDeepseek推論コンテンツを提供します。Deepseek APIサービスまたはローカルOllamaサーバーからDeepseekの思考プロセスへのアクセスをサポートします。
コア機能
🤖デュアルモードサポート
OpenAI APIモードのサポート
Ollama ローカルモードのサポート
🎯集中的な推論
Deepseekの思考プロセスをキャプチャ
推論出力を提供する
Related MCP server: Multi-Model Advisor
利用可能なツール
ディープシークの思想家
説明: Deepseekモデルを使用して推論を実行します
入力パラメータ:
originPrompt(文字列): ユーザーの元のプロンプト
戻り値: 推論プロセスを含む構造化テキスト応答
環境設定
OpenAI APIモード
次の環境変数を設定します。
オラマモード
次の環境変数を設定します。
使用法
Claude DesktopなどのAIクライアントとの統合
claude_desktop_config.jsonに次の構成を追加します。
Ollamaモードの使用
ローカルサーバーの構成
開発セットアップ
よくある質問
応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」
このエラーは、Deepseek API の応答が遅すぎる場合、または推論コンテンツの出力が長すぎる場合に発生し、MCP サーバーがタイムアウトになります。
技術スタック
タイプスクリプト
@モデルコンテキストプロトコル/sdk
オープンAI API
オラマ
Zod(パラメータ検証)
ライセンス
このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。