用于 n8n 集成的 MCP 服务器
该项目实现了一个模型上下文协议 (MCP) 服务器,旨在与您的本地 n8n 服务器无缝协作。MCP 服务器使 AI 代理能够通过标准化协议与您的 n8n 工作流和工具进行交互。
概述
模型上下文协议 (MCP) 是一种允许 AI 代理与外部工具和服务交互的规范。此实现特别侧重于与强大的工作流自动化平台 n8n 集成,从而使 AI 代理能够:
- 执行 n8n 工作流程
- 访问 n8n 工具和功能
- 通过标准化界面与您的自动化工作流程进行交互
该服务器现在采用模块化方法设计,工具位于专用tools
目录中,使其更易于管理和扩展。
特征
- 与 n8n 兼容的 MCP 服务器实现
- 模块化工具设计:工具组织在单独的
tools
目录中,可以轻松添加和管理新功能。 - 支持 SSE(服务器发送事件)端点
- 身份验证支持(Bearer 和通用标头方法)
- 工具选择和过滤功能
- 与本地 n8n 服务器集成
入门
- 克隆此存储库
- 设置 Python 虚拟环境
- 安装依赖项
- 配置您的 n8n 服务器连接
- 启动 MCP 服务器
与 n8n 集成
此 MCP 服务器与 n8n MCP 客户端工具节点配合使用,可让您:
- 连接到外部 MCP 服务器
- 向 AI 代理公开特定工具
- 控制哪些工具可用于您的 AI 工作流程
- 管理身份验证和安全
文档
有关模型上下文协议和 n8n 集成的更多信息,请参阅:
执照
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。