Skip to main content
Glama

BMAD Agent FastMCP Service

by 2799662352
CURSOR_USAGE_GUIDE.md5.78 kB
# 在 Cursor 中使用 BMAD Agent FastMCP Service ## 🎯 双模式支持 BMAD Agent 现在支持两种 LLM 模式: ### 🔧 内置 LLM 模式(推荐) - ✅ **使用 Cursor 内置 LLM**:直接利用 Cursor IDE 的 LLM 能力 - ✅ **无需外部 API**:不需要网络连接和 API 费用 - ✅ **响应更快**:即时响应,无网络延迟 - ✅ **深度集成**:与 Cursor 完美配合 - 🔧 **工作原理**:智能体工具返回角色提示,让 Cursor LLM 扮演专业角色 ### 🌐 外部 API 模式(备选) - ✅ **DeepSeek API**:使用专门的 LLM 模型 - ✅ **独立服务**:不依赖 IDE 的 LLM 能力 - ⚠️ **需要网络**:需要 API Key 和网络连接 - 🔧 **工作原理**:直接调用外部 API 获取智能体响应 ## 🔄 模式切换 ### 快速切换 ```bash # 切换到内置 LLM 模式(推荐) python switch_llm_mode.py --builtin # 切换到外部 API 模式 python switch_llm_mode.py --external # 查看当前模式信息 python switch_llm_mode.py --info ``` ### 环境变量控制 ```bash # 设置使用内置 LLM set USE_BUILTIN_LLM=true # 设置使用外部 API set USE_BUILTIN_LLM=false ``` ## 🚀 快速开始 ### 1. 启动 FastMCP 服务 在 Cursor 的终端中运行: ```bash # 确保在项目目录中 cd D:\234ffff # 启动服务(内置 LLM 模式) python bmad_agent_mcp.py ``` ### 2. 配置 Cursor MCP 在 Cursor 的设置中添加 MCP 服务器配置: **方法 1:使用配置脚本(推荐)** ```bash python setup_cursor_mcp.py ``` **方法 2:手动配置** 打开 Cursor 设置 → MCP Servers,添加以下配置: ```json { "bmad-agent": { "command": "python", "args": ["D:\\234ffff\\bmad_agent_mcp.py"], "cwd": "D:\\234ffff", "env": { "PYTHONPATH": "D:\\234ffff", "USE_BUILTIN_LLM": "true", "PYTHONIOENCODING": "utf-8", "PYTHONUNBUFFERED": "1" } } } ``` ### 3. 重启 Cursor 配置完成后重启 Cursor IDE,让 MCP 配置生效。 ## 🎯 使用示例 ### 基础使用 在 Cursor 中与 AI 对话时,可以直接使用 BMAD 智能体: ``` 用户: "请列出所有可用的 BMAD 智能体" AI: 调用 list_agents() 工具 返回: 10 个专业智能体的详细列表 用户: "使用产品经理分析一个电商平台的需求" AI: 调用 call_agent_with_llm('pm', '分析电商平台需求') 工具 返回: 专业的产品需求分析 ``` ### 工作流程使用 ``` 用户: "启动全栈开发工作流程" AI: 调用 start_workflow('greenfield-fullstack') 工具 返回: 工作流程已启动,显示当前步骤 用户: "推进到下一步" AI: 调用 advance_workflow_step() 工具 返回: 工作流程推进到下一步骤 ``` ### LLM 模式切换 ``` 用户: "切换到 DeepSeek API 模式" AI: 调用 switch_llm_mode('external') 工具 返回: 已切换到外部 API 模式 用户: "查看当前 LLM 模式信息" AI: 调用 get_llm_mode_info() 工具 返回: 当前模式详细信息 ``` ## 🔧 高级配置 ### 环境变量配置 创建 `.env` 文件: ```bash # LLM 模式配置 USE_BUILTIN_LLM=true # DeepSeek API 配置(可选) DEEPSEEK_API_KEY=your_api_key_here DEEPSEEK_BASE_URL=https://api.deepseek.com # 字符编码配置 PYTHONIOENCODING=utf-8 PYTHONUNBUFFERED=1 # 日志配置 LOG_LEVEL=INFO LOG_FILE=logs/bmad_agent.log ``` ### Cursor 设置优化 在 Cursor 的 `settings.json` 中添加: ```json { "mcpServers": { "bmad-agent": { "command": "python", "args": ["D:\\234ffff\\bmad_agent_mcp.py"], "cwd": "D:\\234ffff", "env": { "PYTHONPATH": "D:\\234ffff", "USE_BUILTIN_LLM": "true", "PYTHONIOENCODING": "utf-8", "PYTHONUNBUFFERED": "1" } } }, "mcp.timeout": 30000, "mcp.retries": 3 } ``` ## 🐛 故障排除 ### 常见问题 **1. 找不到智能体** ```bash # 检查服务状态 python bmad_agent_mcp.py --test # 验证 .bmad-core 目录 python validate_bmad_core.py ``` **2. 编码问题** ```bash # 设置正确的编码 set PYTHONIOENCODING=utf-8 set PYTHONUNBUFFERED=1 ``` **3. 路径问题** ```bash # 检查 Python 路径 echo %PYTHONPATH% # 设置正确的路径 set PYTHONPATH=D:\234ffff ``` ### 调试模式 启用详细日志: ```bash # 启动调试模式 python bmad_agent_mcp.py --debug # 查看日志 type logs\bmad_agent.log ``` ### 测试连接 ```bash # 测试 MCP 连接 python test_mcp_connection.py # 测试智能体功能 python test_agent_functionality.py # 测试 LLM 集成 python test_llm_integration.py ``` ## 📊 性能优化 ### 内置 LLM 模式优化 - ✅ **快速响应**:平均响应时间 < 1 秒 - ✅ **低资源占用**:内存使用 < 100MB - ✅ **高并发支持**:支持多个并发请求 ### 外部 API 模式优化 - 🔧 **连接池**:复用 HTTP 连接 - 🔧 **缓存机制**:缓存常用响应 - 🔧 **重试机制**:自动重试失败请求 ## 🎯 最佳实践 ### 1. 模式选择 - **日常开发**:使用内置 LLM 模式 - **复杂分析**:可切换到外部 API 模式 - **团队协作**:统一使用内置模式 ### 2. 工作流程 - **新项目**:使用 greenfield 工作流程 - **现有项目**:使用 brownfield 工作流程 - **特定需求**:选择对应的专业智能体 ### 3. 性能优化 - **批量操作**:使用工作流程而非单个智能体 - **缓存利用**:重复使用相同的智能体配置 - **资源管理**:定期清理日志和缓存 ## 🔗 相关链接 - [项目结构说明](../PROJECT_STRUCTURE.md) - [LLM 切换指南](LLM_SWITCH_GUIDE.md) - [最终解决方案](FINAL_SOLUTION_REPORT.md) - [故障排除指南](TROUBLESHOOTING.md) --- **🎉 享受使用 BMAD Agent FastMCP Service 在 Cursor 中的强大功能!**

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/2799662352/bmad-agent-fastmcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server