DeepSeek MCP Server

DeepSeek MCP-Server

Ein Model Context Protocol (MCP)-Server für die DeepSeek-API, der eine nahtlose Integration der leistungsstarken Sprachmodelle von DeepSeek mit MCP-kompatiblen Anwendungen wie Claude Desktop ermöglicht.

DeepSeek-API anonym verwenden – Auf der anderen Seite wird nur ein Proxy angezeigt

Installation

Installation über Smithery

So installieren Sie den DeepSeek MCP Server für Claude Desktop automatisch über Smithery :

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

Manuelle Installation

npm install -g deepseek-mcp-server

Verwendung mit Claude Desktop

Fügen Sie dies zu Ihrer claude_desktop_config.json hinzu:

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

Merkmale

Hinweis: Der Server verarbeitet diese Anfragen in natürlicher Sprache intelligent, indem er sie den entsprechenden Konfigurationsänderungen zuordnet. Sie können auch die aktuellen Einstellungen und verfügbaren Modelle abfragen:

  • Benutzer: „Welche Modelle gibt es?“
    • Antwort: Zeigt eine Liste der verfügbaren Modelle und ihrer Funktionen über die Modellressource an.
  • Benutzer: „Welche Konfigurationsmöglichkeiten habe ich?“
    • Antwort: Listet alle verfügbaren Konfigurationsoptionen über die Model-Config-Ressource auf.
  • Benutzer: „Wie ist die aktuelle Temperatureinstellung?“
    • Antwort: Zeigt die aktuelle Temperatureinstellung an.
  • Benutzer: „Starten Sie eine mehrstufige Konversation. Mit den folgenden Einstellungen: Modell: ‚deepseek-chat‘, nicht zu kreativ sein und 8000 Token zulassen.“
    • Antwort: Startet eine mehrstufige Konversation mit den angegebenen Einstellungen.

Automatischer Modell-Fallback, wenn R1 ausfällt

  • Wenn das primäre Modell (R1) ausfällt (auf dem Server als deepseek-reasoner bezeichnet), versucht der Server automatisch, es mit v3 zu versuchen (auf dem Server als deepseek-chat “ bezeichnet).

Hinweis: Sie können auch jederzeit hin- und herwechseln, indem Sie einfach Ihre Eingabeaufforderung eingeben und „use deepseek-reasoner “ oder „use deepseek-chat “ sagen.

  • V3 wird für allgemeine Zwecke empfohlen, während R1 für technischere und komplexere Abfragen empfohlen wird, hauptsächlich aufgrund der Geschwindigkeit und der Token-Nutzung.

Ressourcensuche für verfügbare Modelle und Konfigurationen:

  • Benutzerdefinierte Modellauswahl
  • Temperaturregelung (0,0 - 2,0)
  • Maximales Token-Limit
  • Top-P-Stichprobe (0,0 – 1,0)
  • Anwesenheitsstrafe (-2,0 - 2,0)
  • Frequenzstrafe (-2,0 - 2,0)

Erweiterte Konversationsfunktionen

Unterstützung für Multi-Turn-Konversationen:

  • Behält den vollständigen Nachrichtenverlauf und Kontext über alle Austausche hinweg bei
  • Behält die Konfigurationseinstellungen während der gesamten Konversation bei
  • Bewältigt komplexe Dialogabläufe und Folgeketten automatisch

Diese Funktion ist besonders wertvoll für zwei wichtige Anwendungsfälle:

  1. Training & Feinabstimmung: Da DeepSeek Open Source ist, trainieren viele Nutzer ihre eigenen Versionen. Die Multi-Turn-Unterstützung liefert korrekt formatierte Konversationsdaten, die für das Training hochwertiger Dialogmodelle unerlässlich sind.
  2. Komplexe Interaktionen: Für den Produktionseinsatz hilft dies bei der Verwaltung längerer Gespräche, bei denen der Kontext entscheidend ist:
    • Mehrstufige Denkprobleme
    • Interaktive Sitzungen zur Fehlerbehebung
    • Ausführliche technische Diskussionen
    • Jedes Szenario, in dem der Kontext früherer Nachrichten spätere Antworten beeinflusst

Die Implementierung übernimmt die gesamte Kontextverwaltung und Nachrichtenformatierung im Hintergrund, sodass Sie sich auf die eigentliche Interaktion konzentrieren können und nicht auf die technischen Details der Aufrechterhaltung des Konversationsstatus.

Testen mit MCP Inspector

Sie können den Server lokal mit dem MCP Inspector-Tool testen:

  1. Erstellen Sie den Server:
    npm run build
  2. Führen Sie den Server mit MCP Inspector aus:
    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

Der Inspektor wird in Ihrem Browser geöffnet und stellt über stdio eine Verbindung zum Server her. Sie können:

  • Verfügbare Tools anzeigen
  • Testen Sie Chat-Abschlüsse mit unterschiedlichen Parametern
  • Debuggen von Serverantworten
  • Überwachen der Serverleistung

Hinweis: Der Server verwendet standardmäßig das R1-Modell (Deepseek-Reasoner) von DeepSeek, das modernste Leistung für Schlussfolgerungen und allgemeine Aufgaben bietet.

Lizenz

MIT

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ermöglicht die Integration der Sprachmodelle von DeepSeek mit MCP-kompatiblen Anwendungen und bietet Funktionen wie Chat-Vervollständigung, benutzerdefinierte Modellauswahl und Parametersteuerung zur Verbesserung sprachbasierter Interaktionen.

  1. DeepSeek-API anonym verwenden – Auf der anderen Seite wird nur ein Proxy angezeigt
    1. Installation
      1. Installation über Smithery
      2. Manuelle Installation
      3. Verwendung mit Claude Desktop
    2. Merkmale
      1. Automatischer Modell-Fallback, wenn R1 ausfällt
      2. Ressourcensuche für verfügbare Modelle und Konfigurationen:
    3. Erweiterte Konversationsfunktionen
      1. Testen mit MCP Inspector
        1. Lizenz

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            Facilitates two-stage reasoning processes using DeepSeek for detailed analysis and supports multiple response models such as Claude 3.5 Sonnet and OpenRouter, maintaining conversation context and enhancing AI-driven interactions.
            Last updated -
            2
            101
            JavaScript
            MIT License
          • A
            security
            A
            license
            A
            quality
            A Node.js/TypeScript implementation of a Model Context Protocol server for the Deepseek R1 language model, optimized for reasoning tasks with a large context window and fully integrated with Claude Desktop.
            Last updated -
            1
            40
            JavaScript
            MIT License
            • Apple
            • Linux
          • A
            security
            A
            license
            A
            quality
            An MCP (Model Context Protocol) server that integrates with the ArgoCD API, enabling AI assistants and large language models to manage ArgoCD applications and resources through natural language interactions.
            Last updated -
            10
            6
            Python
            MIT License
            • Linux
            • Apple
          • A
            security
            A
            license
            A
            quality
            A Model Context Protocol server that combines DeepSeek R1's reasoning capabilities with Claude 3.5 Sonnet's response generation, enabling two-stage AI processing where DeepSeek's structured reasoning enhances Claude's final outputs.
            Last updated -
            2
            JavaScript
            MIT License

          View all related MCP servers

          ID: asht4rqltn