工作流 MCP
用于与 Workflowy 交互的模型上下文协议 (MCP) 服务器。该服务器为 Workflowy 提供与 MCP 兼容的接口,允许 AI 助手以编程方式与您的 Workflowy 列表进行交互。
什么是 MCP?
模型上下文协议 (MCP) 是 AI 模型与外部工具和 API 交互的标准化方式。此服务器实现了 MCP,允许 AI 助手(例如 ChatGPT)通过一组定义的工具读取和操作您的 Workflowy 列表。
特征
- Workflowy 集成:使用用户名/密码验证连接到您的 Workflowy 帐户
- MCP 兼容性:完全支持模型上下文协议
- 工具操作:在 Workflowy 中搜索、创建、更新和将节点标记为完成/不完成
示例用法:
就我个人而言,我使用 Workflowy 作为我的项目管理工具。让我的经纪人访问我的笔记和代码库,以下是一些有用的提示:
- “在 workflowy 中显示我关于项目 XYZ 的所有笔记”
- “审查代码库,将所有已完成的注释标记为已完成”
- “考虑到我在这个项目的工作流程上的里程碑,建议我的下一个任务应该是什么”
安装
先决条件
- Node.js v18 或更高版本
- Workflowy 帐户
快速安装
配置
在您的项目目录中创建一个包含以下内容的.env
文件:
或者,您可以在运行服务器时将这些凭据作为环境变量提供。
用法
启动服务器
可用工具
此 MCP 服务器提供以下工具与您的 Workflowy 进行交互:
- list_nodes - 从 Workflowy 获取节点列表(根节点或指定节点的子节点)
- search_nodes - 通过查询文本搜索节点
- create_node - 在 Workflowy 中创建一个新节点
- update_node - 修改现有节点的文本或描述
- toggle_complete - 将节点标记为完成或不完成
与人工智能助手集成
要将此 MCP 服务器与 AI 助手(如 ChatGPT)一起使用:
- 按照上述说明启动 MCP 服务器
- 将您的 AI 助手连接到 MCP 服务器(请参阅您的 AI 助手的文档)
- AI 助手现在可以读取和操作你的 Workflowy 列表
一键
贡献
欢迎贡献代码!欢迎提交 Pull 请求。
执照
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅LICENSE文件。
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
mcp-workflowy
Related Resources
Related MCP Servers
- PythonApache 2.0
- Apache 2.0
- TypeScriptMIT License
- PythonMIT License