Skip to main content
Glama

DeepSeek MCP サーバー

DeepSeek API 用のモデル コンテキスト プロトコル (MCP) サーバー。DeepSeek の強力な言語モデルを Claude Desktop などの MCP 互換アプリケーションとシームレスに統合できます。

DeepSeek APIを匿名で使用 -- 反対側にはプロキシのみが表示されます

npmバージョン npmダウンロード GitHubの問題 GitHubフォーク GitHubスター GitHubライセンス

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の DeepSeek MCP Server を自動的にインストールするには:

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

手動インストール

npm install -g deepseek-mcp-server

Claude Desktopでの使用

これをclaude_desktop_config.jsonに追加します:

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

特徴

注: サーバーはこれらの自然言語リクエストを適切な設定変更にマッピングすることでインテリジェントに処理します。現在の設定と利用可能なモデルを照会することもできます。

  • ユーザー: 「どのようなモデルが利用可能ですか?」

    • 応答: モデル リソースを介して、利用可能なモデルとその機能のリストを表示します。

  • ユーザー: 「どのような設定オプションがありますか?」

    • 応答: model-config リソースを介して利用可能なすべての構成オプションを一覧表示します。

  • ユーザー: 「現在の温度設定はいくつですか?」

    • 応答: 現在の温度設定を表示します。

  • ユーザー: 「マルチターンの会話を開始します。次の設定を使用します: model: 'deepseek-chat'、あまりクリエイティブにせず、8000 トークンを許可します。」

    • 応答:指定された設定でマルチターン会話を開始します。

R1がダウンした場合の自動モデルフォールバック

  • プライマリモデル(R1)がダウンしている場合(サーバーではdeepseek-reasonerと呼ばれます)、サーバーは自動的にv3(サーバーではdeepseek-chatと呼ばれます)を試みます。

注: プロンプトに「use deepseek-reasoner 」または「use deepseek-chat 」と入力するだけで、いつでも切り替えることができます。

  • V3は一般的な用途に推奨されますが、R1は主に速度とトークンの使用により、より技術的で複雑なクエリに推奨されます。

利用可能なモデルと構成のリソース検出:

  • カスタムモデルの選択

  • 温度制御(0.0~2.0)

  • 最大トークン制限

  • トップPサンプリング(0.0 - 1.0)

  • プレゼンスペナルティ(-2.0 - 2.0)

  • 頻度ペナルティ (-2.0 - 2.0)

強化された会話機能

マルチターン会話のサポート:

  • 交換全体にわたって完全なメッセージ履歴とコンテキストを維持します

  • 会話中も設定が保持されます

  • 複雑な対話フローとフォローアップチェーンを自動的に処理します

この機能は、次の 2 つの主要な使用例で特に役立ちます。

  1. トレーニングと微調整: DeepSeekはオープンソースであるため、多くのユーザーが独自のバージョンをトレーニングしています。マルチターンサポートにより、高品質な対話モデルのトレーニングに不可欠な、適切にフォーマットされた会話データが提供されます。

  2. **複雑なインタラクション:**本番環境での使用では、コンテキストが重要な長い会話を管理するのに役立ちます。

    • 多段階推論問題

    • インタラクティブなトラブルシューティングセッション

    • 詳細な技術的議論

    • 以前のメッセージのコンテキストが後の応答に影響を与えるシナリオ

実装では、すべてのコンテキスト管理とメッセージのフォーマットがバックグラウンドで処理されるため、会話の状態を維持するための技術的な詳細ではなく、実際の対話に集中できます。

MCP Inspectorによるテスト

MCP Inspector ツールを使用して、サーバーをローカルでテストできます。

  1. サーバーを構築します。

    npm run build
  2. MCP Inspector を使用してサーバーを実行します。

    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

インスペクターがブラウザで開き、stdioトランスポート経由でサーバーに接続します。以下の操作が可能です。

  • 利用可能なツールを表示

  • さまざまなパラメータでチャット補完をテストする

  • サーバーの応答をデバッグする

  • サーバーのパフォーマンスを監視する

注: サーバーはデフォルトで DeepSeek の R1 モデル (deepseek-reasoner) を使用します。これは推論と一般的なタスクに対して最先端のパフォーマンスを提供します。

ライセンス

マサチューセッツ工科大学

Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    Enables integration of DeepSeek's language models with MCP-compatible applications, offering features like chat completion, custom model selection, and parameter control for enhancing language-based interactions.
    Last updated -
    27
    283
    MIT License
  • A
    security
    A
    license
    A
    quality
    Enables integration with OpenAI models through the MCP protocol, supporting concise and detailed responses for use with Claude Desktop.
    Last updated -
    4
    MIT License
    • Apple
    • Linux
  • -
    security
    A
    license
    -
    quality
    A Model Control Protocol server implementation that allows Claude Desktop to use Deepseek models running in Docker, enabling seamless integration between Claude Desktop and Deepseek's language models.
    Last updated -
    4
    MIT License
  • A
    security
    F
    license
    A
    quality
    A server built on mcp-framework that enables integration with Claude Desktop through the Model Context Protocol.
    Last updated -
    1
    1
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/liuchongchong1995/deepseek-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server