remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Provides tools for managing n8n workflows, executions, credentials, tags, projects, users, and variables. Allows creating, retrieving, updating, and deleting workflows, executing workflows, managing workflow tags, and generating security audits for n8n instances.
Mentioned as a future platform where the n8n MCP server will be available through the Smithery.ai marketplace.
Servidor MCP n8n
Un servidor MCP que proporciona acceso a flujos de trabajo, ejecuciones, credenciales y más de n8n mediante el Protocolo de Contexto de Modelo. Esto permite que los Modelos de Lenguaje Grandes (LLM) interactúen con instancias de n8n de forma segura y estandarizada.
Instalación
Obtenga su clave API n8n
- Inicie sesión en su instancia n8n
- Haga clic en su icono de usuario en la parte inferior izquierda.
- Ir a Configuración
- Seleccionar API
- Haga clic en "Crear clave API"
- Copia tu clave API (no podrás volver a verla)
Instalar el servidor MCP
Opción 1: Instalar desde npm (recomendado)
Opción 2: Instalar desde la fuente
- Clonar el repositorio:Copy
- Instalar dependencias y compilar:Copy
- Inicie el servidor en segundo plano:Para detener el servidor:CopyCopy
Nota: Al instalar desde npm, el servidor estará disponible como n8n-mcp-server
en su RUTA.
Configuración
Escritorio de Claude
- Abra la configuración de Claude Desktop:Copy
- Agregue la configuración n8n:Copy
Cline (Código VS)
- Instalar el servidor (siga los pasos de instalación anteriores)
- Abrir VS Code
- Abra la extensión Cline desde la barra lateral izquierda
- Haga clic en el icono 'Servidores MCP' en la parte superior del panel
- Desplácese hasta la parte inferior y haga clic en "Configurar servidores MCP".
- Agregue al archivo de configuración abierto:Copy
- Guardar el archivo
- Asegúrese de que el interruptor MCP esté habilitado (verde) y que el indicador de estado esté verde
- Comience a usar comandos MCP en Cline
Sabio
¡Próximamente! El servidor MCP n8n estará disponible a través de:
- Mercado de Smithery.ai
- Importar desde Claude Desktop
Por ahora, utilice Claude Desktop o Cline.
Validación
Después de la configuración:
- Reinicia tu solicitud de LLM
- Pregunta: "Enumerar mis flujos de trabajo n8n"
- Deberías ver tus flujos de trabajo enumerados
Si recibe un error:
- Comprueba que tu instancia n8n se esté ejecutando
- Verifique que su clave API tenga los permisos correctos
- Asegúrese de que N8N_HOST no tenga ninguna barra diagonal final
Características
Características principales
- Enumerar y gestionar flujos de trabajo
- Ver detalles del flujo de trabajo
- Ejecutar flujos de trabajo
- Administrar credenciales
- Manejar etiquetas y ejecuciones
- Generar auditorías de seguridad
- Administrar etiquetas de flujo de trabajo
Funciones empresariales
Estas funciones requieren una licencia n8n Enterprise:
- Gestión de proyectos
- Gestión de variables
- Gestión avanzada de usuarios
Solución de problemas
Problemas comunes
- "Cliente no inicializado"
- Compruebe que N8N_HOST y N8N_API_KEY estén configurados correctamente
- Asegúrese de que la instancia n8n sea accesible
- Verificar los permisos de la clave API
- "Se requiere licencia"
- Estás intentando utilizar una función de Enterprise
- Actualice a n8n Enterprise o utilice solo las funciones principales
- Problemas de conexión
- Verificar que la instancia n8n se esté ejecutando
- Comprobar el protocolo URL (http/https)
- Eliminar la barra diagonal final de N8N_HOST
Mejores prácticas de seguridad
- Gestión de claves API
- Utilice los permisos mínimos necesarios
- Gire las llaves regularmente
- Nunca envíe claves al control de versiones
- Acceso a instancias
- Utilice HTTPS para producción
- Habilitar la autenticación n8n
- Mantén n8n actualizado
Apoyo
Licencia
You must be authenticated.
Tools
Un servidor MCP que permite la interacción segura con flujos de trabajo, ejecuciones y configuraciones de n8n a través del Protocolo de contexto de modelo, diseñado para la integración con modelos de lenguaje grandes (LLM).