Deepseek R1 MCP サーバー
Deepseek R1言語モデル用のモデルコンテキストプロトコル(MCP)サーバー実装。Deepseek R1は、8192トークンのコンテキストウィンドウを持つ推論タスクに最適化された強力な言語モデルです。
なぜNode.jsなのか?この実装では、MCPサーバーとの最も安定した統合を実現するNode.js/TypeScriptを使用しています。Node.js SDKは、より優れた型安全性、エラー処理、そしてClaude Desktopとの互換性を提供します。
クイックスタート
手動でインストールする
# Clone and install
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
# Set up environment
cp .env.example .env # Then add your API key
# Build and run
npm run buildRelated MCP server: DuckDuckGo MCP Server
前提条件
Node.js (v18以上)
npm
クロードデスクトップ
Deepseek APIキー
モデル選択
デフォルトでは、このサーバーはdeepseek-R1モデルを使用します。代わりにDeepSeek-V3を使用する場合は、 src/index.tsのモデル名を変更してください。
// For DeepSeek-R1 (default)
model: "deepseek-reasoner"
// For DeepSeek-V3
model: "deepseek-chat"プロジェクト構造
deepseek-r1-mcp/
├── src/
│ ├── index.ts # Main server implementation
├── build/ # Compiled files
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json構成
.envファイルを作成します。
DEEPSEEK_API_KEY=your-api-key-hereClaude Desktop の構成を更新します。
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}発達
npm run dev # Watch mode
npm run build # Build for production特徴
Deepseek R1 による高度なテキスト生成 (8192 トークン コンテキスト ウィンドウ)
設定可能なパラメータ(max_tokens、温度)
詳細なエラーメッセージによる堅牢なエラー処理
完全なMCPプロトコルサポート
クロードデスクトップ統合
DeepSeek-R1とDeepSeek-V3の両方のモデルをサポート
APIの使用
{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // Maximum tokens to generate
"temperature": 0.2 // Controls randomness
}
}温度パラメータ
temperatureのデフォルト値は 0.2 です。
Deepseek では、特定の使用例に応じてtemperatureを設定することをお勧めします。
使用事例 | 温度 | 例 |
コーディング/数学 | 0.0 | コード生成、数学的計算 |
データクリーニング/データ分析 | 1.0 | データ処理タスク |
一般的な会話 | 1.3 | チャットと対話 |
翻訳 | 1.3 | 言語翻訳 |
創作 / 詩 | 1.5 | 物語の執筆、詩の創作 |
エラー処理
サーバーは、一般的な問題に関する詳細なエラー メッセージを提供します。
API認証エラー
無効なパラメータ
レート制限
ネットワークの問題
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。
ライセンス
マサチューセッツ工科大学