servidor mcp-dify
Servidor de Protocolo de Contexto de Modelo para Dify AI. Este servidor permite a los LLM interactuar con las funciones de finalización de chat de Dify AI mediante un protocolo estandarizado.
Características
Integración con la API de finalización de chat de Dify AI
Herramienta de recomendación de restaurantes (meshi-doko)
Soporte para contexto de conversación
Soporte de respuesta en streaming
Implementación de TypeScript
Related MCP server: MCP Perplexity Search
Instalación
Usando Docker
# Build the Docker image
make docker
# Run with Docker
docker run -i --rm mcp/dify https://your-dify-api-endpoint your-dify-api-keyUso
Con Claude Desktop
Agregue la siguiente configuración a su claude_desktop_config.json :
{
"mcpServers": {
"dify": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-dify",
"https://your-dify-api-endpoint",
"your-dify-api-key"
]
}
}
}Reemplace your-dify-api-endpoint y your-dify-api-key con sus credenciales de API de Dify reales.
Herramientas
malla-doko
Herramienta de recomendación de restaurantes que interactúa con Dify AI:
Parámetros:
LOCATION(cadena): Ubicación del restauranteBUDGET(cadena): Restricciones presupuestariasquery(cadena): Consulta para enviar a Dify AIconversation_id(cadena, opcional): para mantener el contexto del chat
Desarrollo
# Initial setup
make setup
# Build the project
make build
# Format code
make format
# Run linter
make lintLicencia
Este proyecto se publica bajo la licencia MIT .
Seguridad
Este servidor interactúa con Dify AI usando la clave API que proporcionaste. Asegúrate de:
Mantenga sus credenciales de API seguras
Utilice HTTPS para el punto final de la API
Nunca envíe claves API al control de versiones
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.