DeepSeek MCP-Server
Ein Model Context Protocol (MCP)-Server für die DeepSeek-API, der eine nahtlose Integration der leistungsstarken Sprachmodelle von DeepSeek mit MCP-kompatiblen Anwendungen wie Claude Desktop ermöglicht.
DeepSeek-API anonym verwenden – Auf der anderen Seite wird nur ein Proxy angezeigt
Installation
Installation über Smithery
So installieren Sie den DeepSeek MCP Server für Claude Desktop automatisch über Smithery :
Manuelle Installation
Verwendung mit Claude Desktop
Fügen Sie dies zu Ihrer claude_desktop_config.json
hinzu:
Merkmale
Hinweis: Der Server verarbeitet diese Anfragen in natürlicher Sprache intelligent, indem er sie den entsprechenden Konfigurationsänderungen zuordnet. Sie können auch die aktuellen Einstellungen und verfügbaren Modelle abfragen:
- Benutzer: „Welche Modelle gibt es?“
- Antwort: Zeigt eine Liste der verfügbaren Modelle und ihrer Funktionen über die Modellressource an.
- Benutzer: „Welche Konfigurationsmöglichkeiten habe ich?“
- Antwort: Listet alle verfügbaren Konfigurationsoptionen über die Model-Config-Ressource auf.
- Benutzer: „Wie ist die aktuelle Temperatureinstellung?“
- Antwort: Zeigt die aktuelle Temperatureinstellung an.
- Benutzer: „Starten Sie eine mehrstufige Konversation. Mit den folgenden Einstellungen: Modell: ‚deepseek-chat‘, nicht zu kreativ sein und 8000 Token zulassen.“
- Antwort: Startet eine mehrstufige Konversation mit den angegebenen Einstellungen.
Automatischer Modell-Fallback, wenn R1 ausfällt
- Wenn das primäre Modell (R1) ausfällt (auf dem Server als
deepseek-reasoner
bezeichnet), versucht der Server automatisch, es mit v3 zu versuchen (auf dem Server alsdeepseek-chat
“ bezeichnet).
Hinweis: Sie können auch jederzeit hin- und herwechseln, indem Sie einfach Ihre Eingabeaufforderung eingeben und „use
deepseek-reasoner
“ oder „usedeepseek-chat
“ sagen.
- V3 wird für allgemeine Zwecke empfohlen, während R1 für technischere und komplexere Abfragen empfohlen wird, hauptsächlich aufgrund der Geschwindigkeit und der Token-Nutzung.
Ressourcensuche für verfügbare Modelle und Konfigurationen:
- Benutzerdefinierte Modellauswahl
- Temperaturregelung (0,0 - 2,0)
- Maximales Token-Limit
- Top-P-Stichprobe (0,0 – 1,0)
- Anwesenheitsstrafe (-2,0 - 2,0)
- Frequenzstrafe (-2,0 - 2,0)
Erweiterte Konversationsfunktionen
Unterstützung für Multi-Turn-Konversationen:
- Behält den vollständigen Nachrichtenverlauf und Kontext über alle Austausche hinweg bei
- Behält die Konfigurationseinstellungen während der gesamten Konversation bei
- Bewältigt komplexe Dialogabläufe und Folgeketten automatisch
Diese Funktion ist besonders wertvoll für zwei wichtige Anwendungsfälle:
- Training & Feinabstimmung: Da DeepSeek Open Source ist, trainieren viele Nutzer ihre eigenen Versionen. Die Multi-Turn-Unterstützung liefert korrekt formatierte Konversationsdaten, die für das Training hochwertiger Dialogmodelle unerlässlich sind.
- Komplexe Interaktionen: Für den Produktionseinsatz hilft dies bei der Verwaltung längerer Gespräche, bei denen der Kontext entscheidend ist:
- Mehrstufige Denkprobleme
- Interaktive Sitzungen zur Fehlerbehebung
- Ausführliche technische Diskussionen
- Jedes Szenario, in dem der Kontext früherer Nachrichten spätere Antworten beeinflusst
Die Implementierung übernimmt die gesamte Kontextverwaltung und Nachrichtenformatierung im Hintergrund, sodass Sie sich auf die eigentliche Interaktion konzentrieren können und nicht auf die technischen Details der Aufrechterhaltung des Konversationsstatus.
Testen mit MCP Inspector
Sie können den Server lokal mit dem MCP Inspector-Tool testen:
- Erstellen Sie den Server:Copy
- Führen Sie den Server mit MCP Inspector aus:Copy
Der Inspektor wird in Ihrem Browser geöffnet und stellt über stdio eine Verbindung zum Server her. Sie können:
- Verfügbare Tools anzeigen
- Testen Sie Chat-Abschlüsse mit unterschiedlichen Parametern
- Debuggen von Serverantworten
- Überwachen der Serverleistung
Hinweis: Der Server verwendet standardmäßig das R1-Modell (Deepseek-Reasoner) von DeepSeek, das modernste Leistung für Schlussfolgerungen und allgemeine Aufgaben bietet.
Lizenz
MIT
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ermöglicht die Integration der Sprachmodelle von DeepSeek mit MCP-kompatiblen Anwendungen und bietet Funktionen wie Chat-Vervollständigung, benutzerdefinierte Modellauswahl und Parametersteuerung zur Verbesserung sprachbasierter Interaktionen.
- DeepSeek-API anonym verwenden – Auf der anderen Seite wird nur ein Proxy angezeigt
- Installation
- Merkmale
- Erweiterte Konversationsfunktionen
- Testen mit MCP Inspector
- Lizenz
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityFacilitates two-stage reasoning processes using DeepSeek for detailed analysis and supports multiple response models such as Claude 3.5 Sonnet and OpenRouter, maintaining conversation context and enhancing AI-driven interactions.Last updated -2101JavaScriptMIT License
- AsecurityAlicenseAqualityA Node.js/TypeScript implementation of a Model Context Protocol server for the Deepseek R1 language model, optimized for reasoning tasks with a large context window and fully integrated with Claude Desktop.Last updated -140JavaScriptMIT License
- AsecurityAlicenseAqualityAn MCP (Model Context Protocol) server that integrates with the ArgoCD API, enabling AI assistants and large language models to manage ArgoCD applications and resources through natural language interactions.Last updated -106PythonMIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that combines DeepSeek R1's reasoning capabilities with Claude 3.5 Sonnet's response generation, enabling two-stage AI processing where DeepSeek's structured reasoning enhances Claude's final outputs.Last updated -2JavaScriptMIT License