PRD Creator MCP 服务器
专用于创建产品需求文档的模型上下文协议 (MCP) 服务器。该 MCP 服务器使连接到 MCP 客户端的 AI 系统能够通过标准化协议接口生成详细且结构良好的产品需求文档。
快速入门
通过 NPX(推荐):
通过 Docker:
配置提供程序:
- 将
.env.example
复制到.env
并设置您的 API 密钥和首选模型。 - 或者,使用
update_provider_config
MCP 工具在运行时更新提供商凭据。
获取帮助:
特征
- PRD 生成器:根据产品描述、用户故事和需求创建完整的 PRD
- 人工智能驱动生成:使用多个人工智能提供商生成高质量的 PRD
- 多供应商支持:从 OpenAI、Google Gemini、Anthropic Claude 或本地模型中选择
- 提供商配置:为每个 PRD 生成定制提供商选项
- 回退机制:当 AI 不可用时,优雅地回退到基于模板的生成
- PRD 验证器:根据行业标准和可定制的规则集验证 PRD 的完整性
- 模板资源:访问不同产品类型的 PRD 模板库
- MCP 协议支持:实现模型上下文协议,与 MCP 客户端无缝集成
安装
先决条件
- Node.js v16 或更高版本
- npm 或 yarn
从源安装
- 克隆存储库:
- 安装依赖项:
- 构建项目:
- 本地运行:
- 对于使用热重载进行开发:
API 参考
PRD Creator MCP 服务器提供以下工具:
generate_prd
使用 AI 或基于模板的生成来生成完整的 PRD 文档。
参数:
productName
:产品名称productDescription
:产品描述targetAudience
:目标受众的描述coreFeatures
:核心功能描述数组constraints
(可选):约束或限制的数组templateName
(可选):要使用的模板名称(默认为“标准”)providerId
(可选):要使用的特定 AI 提供商(openai、anthropic、gemini、local、template)additionalContext
(可选):AI 提供商的附加上下文或说明providerOptions
(可选):提供商特定的选项,如温度、maxTokens 等。
例子:
validate_prd
根据最佳实践验证 PRD 文档。
参数:
prdContent
:需要验证的 PRD 内容validationRules
(可选):要检查的验证规则 ID 数组
例子:
list_validation_rules
列出所有可用的验证规则。
list_ai_providers
列出所有可用的 AI 提供商及其可用性状态。
响应示例:
模板管理
服务器提供了用于模板管理的附加工具:
create_template
:创建一个新的 PRD 模板list_templates
:列出所有可用的模板get_template
:获取特定模板update_template
:更新现有模板delete_template
:删除模板export_templates
:将模板导出为 JSONimport_templates
:从 JSON 导入模板render_template
:使用占位符渲染模板
系统管理
get_provider_config
:获取当前提供商配置update_provider_config
:更新提供商配置health_check
:检查系统健康状况和提供商可用性get_logs
:获取最近的系统日志stats
:获取使用情况统计信息
提供商配置和热重载
配置AI提供者
您可以通过两种方式配置提供商凭证和模型:
- **.env 文件:**将
.env
文件放入您的项目或工作目录中。使用.env.example
作为模板。所有标准 AI 提供程序变量(例如OPENAI_API_KEY
、OPENAI_MODEL
等)均受支持。 - **实时协议工具:**通过 MCP 客户端使用
update_provider_config
工具在运行时更新提供程序配置。这些更改将持久化并立即生效,无需重启服务器。
服务器将始终将持久配置(来自协议工具)与环境变量合并,优先考虑协议/工具更新。
热重载和自动化
无论使用哪种方法更新提供程序设置,更改都会立即对所有新请求生效。这样可以:
- 通过 MCP 工具接口实现无缝自动化和脚本编写
- 轻松的凭证轮换和模型切换
- CI/CD 和云部署的动态环境支持
集成
克劳德桌面
添加到claude_desktop_config.json
:
Glama.ai
链接: https://glama.ai/mcp/servers/@Saml1211/PRD-MCP-Server
光标
添加到您的 Cursor MCP 客户端配置:
罗奥代码
添加到.roo/mcp.json
:
克莱恩
在您的 MCP 工作流定义中引用prd-creator-mcp
。
CLI 使用
全局安装(可选)
您还可以全局安装 MCP 服务器来公开 CLI:
然后运行:
命令参考
prd-creator-mcp
运行 MCP 服务器(STDIO 传输)。可直接通过 npx 使用,或作为全局安装的 CLI 与 MCP 客户端和工具集成。
卸载
要删除全局 CLI:
CLI 选项
查看可用的命令行选项:
Docker
构建 Docker 镜像
使用 Docker 运行
使用环境变量
贡献
在提交问题或拉取请求之前,请阅读CONTRIBUTING.md和CODE_OF_CONDUCT.md 。
变更日志
该项目所有值得注意的变化都记录在CHANGELOG.md中。
附录
有用的链接
- GitHub 存储库
- 模型上下文协议- 官方 MCP 规范
- MCP Inspector - MCP 服务器的测试和调试工具
- NPM 包- 已发布的 npm 包
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
专门的模型上下文协议服务器,使AI系统能够通过标准化接口生成详细、结构良好的产品需求文档。
Related MCP Servers
- AsecurityAlicenseAqualityA Model Context Protocol server that integrates with Linear, enabling AI assistants to create, update, search, and comment on issues for project management and issue tracking.Last updated -56PythonApache 2.0
- AsecurityAlicenseAqualityA Model Context Protocol server that enables AI assistants like Claude to interact with Outline document services, supporting document searching, reading, creation, editing, and comment management.Last updated -2519PythonMIT License
- -securityFlicense-qualityA Model Context Protocol server that provides persistent task management capabilities for AI assistants, allowing them to create, update, and track tasks beyond their usual context limitations.Last updated -1TypeScript
- -securityFlicense-qualityA Model Context Protocol server that extends AI capabilities by providing file system access and management functionalities to Claude or other AI assistants.Last updated -3TypeScript