DeepSeek MCP Server

by DMontgomery40
Verified

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

DeepSeek MCP サーバー

DeepSeek API 用のモデル コンテキスト プロトコル (MCP) サーバー。DeepSeek の強力な言語モデルを Claude Desktop などの MCP 互換アプリケーションとシームレスに統合できます。

DeepSeek APIを匿名で使用 -- 反対側にはプロキシのみが表示されます

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の DeepSeek MCP Server を自動的にインストールするには:

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

手動インストール

npm install -g deepseek-mcp-server

Claude Desktopでの使用

これをclaude_desktop_config.jsonに追加します:

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

特徴

注: サーバーはこれらの自然言語リクエストを適切な設定変更にマッピングすることでインテリジェントに処理します。現在の設定と利用可能なモデルを照会することもできます。

  • ユーザー: 「どのようなモデルが利用可能ですか?」
    • 応答: モデル リソースを介して、利用可能なモデルとその機能のリストを表示します。
  • ユーザー: 「どのような設定オプションがありますか?」
    • 応答: model-config リソースを介して利用可能なすべての構成オプションを一覧表示します。
  • ユーザー: 「現在の温度設定はいくつですか?」
    • 応答: 現在の温度設定を表示します。
  • ユーザー: 「マルチターンの会話を開始します。次の設定を使用します: model: 'deepseek-chat'、あまりクリエイティブにせず、8000 トークンを許可します。」
    • 応答:指定された設定でマルチターン会話を開始します。

R1がダウンした場合の自動モデルフォールバック

  • プライマリモデル(R1)がダウンしている場合(サーバーではdeepseek-reasonerと呼ばれます)、サーバーは自動的にv3(サーバーではdeepseek-chatと呼ばれます)を試みます。

注: プロンプトに「use deepseek-reasoner 」または「use deepseek-chat 」と入力するだけで、いつでも切り替えることができます。

  • V3は一般的な用途に推奨されますが、R1は主に速度とトークンの使用により、より技術的で複雑なクエリに推奨されます。

利用可能なモデルと構成のリソース検出:

  • カスタムモデルの選択
  • 温度制御(0.0~2.0)
  • 最大トークン制限
  • トップPサンプリング(0.0 - 1.0)
  • プレゼンスペナルティ(-2.0 - 2.0)
  • 頻度ペナルティ (-2.0 - 2.0)

強化された会話機能

マルチターン会話のサポート:

  • 交換全体にわたって完全なメッセージ履歴とコンテキストを維持します
  • 会話中も設定が保持されます
  • 複雑な対話フローとフォローアップチェーンを自動的に処理します

この機能は、次の 2 つの主要な使用例で特に役立ちます。

  1. トレーニングと微調整: DeepSeekはオープンソースであるため、多くのユーザーが独自のバージョンをトレーニングしています。マルチターンサポートにより、高品質な対話モデルのトレーニングに不可欠な、適切にフォーマットされた会話データが提供されます。
  2. **複雑なインタラクション:**本番環境での使用では、コンテキストが重要な長い会話を管理するのに役立ちます。
    • 多段階推論問題
    • インタラクティブなトラブルシューティングセッション
    • 詳細な技術的議論
    • 以前のメッセージのコンテキストが後の応答に影響を与えるシナリオ

実装では、すべてのコンテキスト管理とメッセージのフォーマットがバックグラウンドで処理されるため、会話の状態を維持するための技術的な詳細ではなく、実際の対話に集中できます。

MCP Inspectorによるテスト

MCP Inspector ツールを使用して、サーバーをローカルでテストできます。

  1. サーバーを構築します。
    npm run build
  2. MCP Inspector を使用してサーバーを実行します。
    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

インスペクターがブラウザで開き、stdioトランスポート経由でサーバーに接続します。以下の操作が可能です。

  • 利用可能なツールを表示
  • さまざまなパラメータでチャット補完をテストする
  • サーバーの応答をデバッグする
  • サーバーのパフォーマンスを監視する

注: サーバーはデフォルトで DeepSeek の R1 モデル (deepseek-reasoner) を使用します。これは推論と一般的なタスクに対して最先端のパフォーマンスを提供します。

ライセンス

マサチューセッツ工科大学

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

DeepSeek の言語モデルを MCP 互換アプリケーションと統合できるようにし、チャット補完、カスタム モデルの選択、言語ベースのインタラクションを強化するためのパラメータ制御などの機能を提供します。

  1. Anonymously use DeepSeek API -- Only a proxy is seen on the other side
    1. Installation
      1. Installing via Smithery
      2. Manual Installation
      3. Usage with Claude Desktop
    2. Features
      1. Automatic Model Fallback if R1 is down
      2. Resource discovery for available models and configurations:
    3. Enhanced Conversation Features
      1. Testing with MCP Inspector
        1. License
          ID: asht4rqltn