mcp-сервер-dify
Сервер протокола контекста модели для Dify AI. Этот сервер позволяет LLM взаимодействовать с возможностями завершения чата Dify AI через стандартизированный протокол.
Функции
Интеграция с API завершения чата Dify AI
Инструмент рекомендации ресторанов (meshi-doko)
Поддержка контекста разговора
Поддержка потокового ответа
Реализация TypeScript
Related MCP server: MCP Perplexity Search
Установка
Использование Докера
# Build the Docker image
make docker
# Run with Docker
docker run -i --rm mcp/dify https://your-dify-api-endpoint your-dify-api-keyИспользование
С Клодом Десктопом
Добавьте следующую конфигурацию в ваш claude_desktop_config.json :
{
"mcpServers": {
"dify": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-dify",
"https://your-dify-api-endpoint",
"your-dify-api-key"
]
}
}
}Замените your-dify-api-endpoint и your-dify-api-key на ваши фактические учетные данные API Dify.
Инструменты
меши-доко
Инструмент рекомендации ресторанов, взаимодействующий с Dify AI:
Параметры:
LOCATION(строка): Месторасположение ресторанаBUDGET(строка): Ограничения бюджетаquery(строка): Запрос для отправки в Dify AIconversation_id(строка, необязательно): для поддержания контекста чата
Разработка
# Initial setup
make setup
# Build the project
make build
# Format code
make format
# Run linter
make lintЛицензия
Этот проект выпущен под лицензией MIT .
Безопасность
Этот сервер взаимодействует с Dify AI, используя предоставленный вами ключ API. Убедитесь, что:
Сохраните ваши учетные данные API в безопасности
Используйте HTTPS для конечной точки API
Никогда не передавайте ключи API в систему контроля версий
Внося вклад
Вклады приветствуются! Пожалуйста, не стесняйтесь отправлять запрос на включение.