hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Deepseek Thinker MCP サーバー
MCP(モデルコンテキストプロトコル)プロバイダーは、Claude DesktopなどのMCP対応AIクライアントにDeepseek推論コンテンツを提供します。Deepseek APIサービスまたはローカルOllamaサーバーからDeepseekの思考プロセスへのアクセスをサポートします。
コア機能
- 🤖デュアルモードサポート
- OpenAI APIモードのサポート
- Ollama ローカルモードのサポート
- 🎯集中的な推論
- Deepseekの思考プロセスをキャプチャ
- 推論出力を提供する
利用可能なツール
ディープシークの思想家
- 説明: Deepseekモデルを使用して推論を実行します
- 入力パラメータ:
originPrompt
(文字列): ユーザーの元のプロンプト
- 戻り値: 推論プロセスを含む構造化テキスト応答
環境設定
OpenAI APIモード
次の環境変数を設定します。
Copy
オラマモード
次の環境変数を設定します。
Copy
使用法
Claude DesktopなどのAIクライアントとの統合
claude_desktop_config.json
に次の構成を追加します。
Copy
Ollamaモードの使用
Copy
ローカルサーバーの構成
Copy
開発セットアップ
Copy
よくある質問
応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」
このエラーは、Deepseek API の応答が遅すぎる場合、または推論コンテンツの出力が長すぎる場合に発生し、MCP サーバーがタイムアウトになります。
技術スタック
- タイプスクリプト
- @モデルコンテキストプロトコル/sdk
- オープンAI API
- オラマ
- Zod(パラメータ検証)
ライセンス
このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。
You must be authenticated.
Tools
Deepseek の API またはローカル Ollama サーバーとインターフェイスすることで、MCP 対応 AI クライアントに推論コンテンツを提供し、集中的な推論と思考プロセスの視覚化を可能にします。