Skip to main content
Glama

PRD Creator MCP Server

PRD Creator MCP 服务器

专用于创建产品需求文档的模型上下文协议 (MCP) 服务器。该 MCP 服务器使连接到 MCP 客户端的 AI 系统能够通过标准化协议接口生成详细且结构良好的产品需求文档。


快速入门

通过 NPX(推荐):

npx -y prd-creator-mcp

通过 Docker:

docker pull saml1211/prd-creator-mcp docker run -i --rm saml1211/prd-creator-mcp

配置提供程序:

  • .env.example复制到.env并设置您的 API 密钥和首选模型。
  • 或者,使用update_provider_config MCP 工具在运行时更新提供商凭据。

获取帮助:

npx prd-creator-mcp --help

特征

  • PRD 生成器:根据产品描述、用户故事和需求创建完整的 PRD
  • 人工智能驱动生成:使用多个人工智能提供商生成高质量的 PRD
  • 多供应商支持:从 OpenAI、Google Gemini、Anthropic Claude 或本地模型中选择
  • 提供商配置:为每个 PRD 生成定制提供商选项
  • 回退机制:当 AI 不可用时,优雅地回退到基于模板的生成
  • PRD 验证器:根据行业标准和可定制的规则集验证 PRD 的完整性
  • 模板资源:访问不同产品类型的 PRD 模板库
  • MCP 协议支持:实现模型上下文协议,与 MCP 客户端无缝集成

安装

先决条件

  • Node.js v16 或更高版本
  • npm 或 yarn

从源安装

  1. 克隆存储库:
git clone https://github.com/Saml1211/prd-mcp-server.git cd prd-mcp-server
  1. 安装依赖项:
npm install
  1. 构建项目:
npm run build
  1. 本地运行:
npm start
  1. 对于使用热重载进行开发:
npm run dev

API 参考

PRD Creator MCP 服务器提供以下工具:

generate_prd

使用 AI 或基于模板的生成来生成完整的 PRD 文档。

参数:

  • productName :产品名称
  • productDescription :产品描述
  • targetAudience :目标受众的描述
  • coreFeatures :核心功能描述数组
  • constraints (可选):约束或限制的数组
  • templateName (可选):要使用的模板名称(默认为“标准”)
  • providerId (可选):要使用的特定 AI 提供商(openai、anthropic、gemini、local、template)
  • additionalContext (可选):AI 提供商的附加上下文或说明
  • providerOptions (可选):提供商特定的选项,如温度、maxTokens 等。

例子:

{ "productName": "TaskMaster Pro", "productDescription": "A task management application that helps users organize and prioritize their work efficiently.", "targetAudience": "Busy professionals and teams who need to manage multiple projects and deadlines.", "coreFeatures": [ "Task creation and management", "Priority setting", "Due date tracking", "Team collaboration" ], "constraints": [ "Must work offline", "Must support mobile and desktop platforms" ], "templateName": "comprehensive", "providerId": "openai", "additionalContext": "Focus on enterprise features and security", "providerOptions": { "temperature": 0.5, "maxTokens": 4000 } }

validate_prd

根据最佳实践验证 PRD 文档。

参数:

  • prdContent :需要验证的 PRD 内容
  • validationRules (可选):要检查的验证规则 ID 数组

例子:

{ "prdContent": "# My Product\n\n## Introduction\n...", "validationRules": ["has-introduction", "minimum-length"] }

list_validation_rules

列出所有可用的验证规则。

list_ai_providers

列出所有可用的 AI 提供商及其可用性状态。

响应示例:

[ { "id": "openai", "name": "OpenAI", "available": true }, { "id": "anthropic", "name": "Anthropic Claude", "available": false }, { "id": "gemini", "name": "Google Gemini", "available": false }, { "id": "local", "name": "Local Model", "available": false }, { "id": "template", "name": "Template-based (No AI)", "available": true } ]

模板管理

服务器提供了用于模板管理的附加工具:

  • create_template :创建一个新的 PRD 模板
  • list_templates :列出所有可用的模板
  • get_template :获取特定模板
  • update_template :更新现有模板
  • delete_template :删除模板
  • export_templates :将模板导出为 JSON
  • import_templates :从 JSON 导入模板
  • render_template :使用占位符渲染模板

系统管理

  • get_provider_config :获取当前提供商配置
  • update_provider_config :更新提供商配置
  • health_check :检查系统健康状况和提供商可用性
  • get_logs :获取最近的系统日志
  • stats :获取使用情况统计信息

提供商配置和热重载

配置AI提供者

您可以通过两种方式配置提供商凭证和模型:

  • **.env 文件:**.env文件放入您的项目或工作目录中。使用.env.example作为模板。所有标准 AI 提供程序变量(例如OPENAI_API_KEYOPENAI_MODEL等)均受支持。
  • **实时协议工具:**通过 MCP 客户端使用update_provider_config工具在运行时更新提供程序配置。这些更改将持久化并立即生效,无需重启服务器。

服务器将始终将持久配置(来自协议工具)与环境变量合并,优先考虑协议/工具更新。

热重载和自动化

无论使用哪种方法更新提供程序设置,更改都会立即对所有新请求生效。这样可以:

  • 通过 MCP 工具接口实现无缝自动化和脚本编写
  • 轻松的凭证轮换和模型切换
  • CI/CD 和云部署的动态环境支持

集成

克劳德桌面

添加到claude_desktop_config.json

{ "mcpServers": { "prd-creator": { "command": "npx", "args": ["-y", "prd-creator-mcp"] } } }

Glama.ai

链接: https://glama.ai/mcp/servers/@Saml1211/PRD-MCP-Server

光标

添加到您的 Cursor MCP 客户端配置:

{ "mcpServers": { "prd-creator": { "command": "npx", "args": ["-y", "prd-creator-mcp"] } } }

罗奥代码

添加到.roo/mcp.json

{ "mcpServers": { "prd-creator-mcp": { "command": "npx", "args": ["-y", "prd-creator-mcp"] } } }

克莱恩

在您的 MCP 工作流定义中引用prd-creator-mcp

CLI 使用

全局安装(可选)

您还可以全局安装 MCP 服务器来公开 CLI:

npm install -g prd-creator-mcp

然后运行:

prd-creator-mcp

命令参考

  • prd-creator-mcp运行 MCP 服务器(STDIO 传输)。可直接通过 npx 使用,或作为全局安装的 CLI 与 MCP 客户端和工具集成。

卸载

要删除全局 CLI:

npm uninstall -g prd-creator-mcp

CLI 选项

查看可用的命令行选项:

npx prd-creator-mcp --help

Docker

构建 Docker 镜像

docker build -t prd-creator-mcp .

使用 Docker 运行

docker run -i --rm prd-creator-mcp

使用环境变量

docker run -i --rm -e OPENAI_API_KEY=your_key_here prd-creator-mcp

贡献

在提交问题或拉取请求之前,请阅读CONTRIBUTING.mdCODE_OF_CONDUCT.md

变更日志

该项目所有值得注意的变化都记录在CHANGELOG.md中。

附录

有用的链接

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

专门的模型上下文协议服务器,使AI系统能够通过标准化接口生成详细、结构良好的产品需求文档。

  1. 快速入门
    1. 特征
      1. 安装
        1. 先决条件
        2. 从源安装
      2. API 参考
        1. generate_prd
        2. validate_prd
        3. list_validation_rules
        4. list_ai_providers
        5. 模板管理
        6. 系统管理
      3. 提供商配置和热重载
        1. 配置AI提供者
        2. 热重载和自动化
      4. 集成
        1. 克劳德桌面
        2. Glama.ai
        3. 光标
        4. 罗奥代码
        5. 克莱恩
      5. CLI 使用
        1. 全局安装(可选)
        2. 命令参考
        3. 卸载
        4. CLI 选项
      6. Docker
        1. 构建 Docker 镜像
        2. 使用 Docker 运行
        3. 使用环境变量
      7. 贡献
        1. 变更日志
          1. 附录
            1. 有用的链接

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            A Model Context Protocol server that integrates with Linear, enabling AI assistants to create, update, search, and comment on issues for project management and issue tracking.
            Last updated -
            5
            6
            Python
            Apache 2.0
          • A
            security
            A
            license
            A
            quality
            A Model Context Protocol server that enables AI assistants like Claude to interact with Outline document services, supporting document searching, reading, creation, editing, and comment management.
            Last updated -
            25
            19
            Python
            MIT License
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that provides persistent task management capabilities for AI assistants, allowing them to create, update, and track tasks beyond their usual context limitations.
            Last updated -
            1
            TypeScript
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that extends AI capabilities by providing file system access and management functionalities to Claude or other AI assistants.
            Last updated -
            3
            TypeScript
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/Saml1211/PRD-MCP-Server'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server