mcp-server-dify
Model Context Protocol Server für Dify AI. Dieser Server ermöglicht LLMs die Interaktion mit den Chat-Vervollständigungsfunktionen von Dify AI über ein standardisiertes Protokoll.
Merkmale
Integration mit der Dify AI-API zur Chat-Vervollständigung
Restaurant-Empfehlungstool (Meshi-Doko)
Unterstützung für Konversationskontext
Unterstützung für Streaming-Antworten
TypeScript-Implementierung
Related MCP server: MCP Perplexity Search
Installation
Verwenden von Docker
# Build the Docker image
make docker
# Run with Docker
docker run -i --rm mcp/dify https://your-dify-api-endpoint your-dify-api-keyVerwendung
Mit Claude Desktop
Fügen Sie Ihrer claude_desktop_config.json die folgende Konfiguration hinzu:
{
"mcpServers": {
"dify": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-dify",
"https://your-dify-api-endpoint",
"your-dify-api-key"
]
}
}
}Ersetzen Sie your-dify-api-endpoint und your-dify-api-key durch Ihre tatsächlichen Dify-API-Anmeldeinformationen.
Werkzeuge
meshi-doko
Restaurant-Empfehlungstool mit Schnittstelle zur Dify-KI:
Parameter:
LOCATION(Zeichenfolge): Standort des RestaurantsBUDGET(Zeichenfolge): Budgetbeschränkungenquery(Zeichenfolge): An Dify AI zu sendende Abfrageconversation_id(Zeichenfolge, optional): Zur Aufrechterhaltung des Chat-Kontexts
Entwicklung
# Initial setup
make setup
# Build the project
make build
# Format code
make format
# Run linter
make lintLizenz
Dieses Projekt wird unter der MIT-Lizenz veröffentlicht.
Sicherheit
Dieser Server interagiert mit Dify AI über den von Ihnen bereitgestellten API-Schlüssel. Achten Sie darauf:
Bewahren Sie Ihre API-Anmeldeinformationen sicher auf
Verwenden Sie HTTPS für den API-Endpunkt
Übergeben Sie API-Schlüssel niemals der Versionskontrolle
Beitragen
Beiträge sind willkommen! Senden Sie gerne einen Pull Request.