CucumberStudio MCP 服务器
该项目为 CucumberStudio API 实现了模型上下文协议 (MCP) 服务器。它为 AI 应用提供 CucumberStudio 平台的上下文,从而支持使用 CucumberStudio 数据执行各种 AI 操作。
概述
模型上下文协议服务器使人工智能助手能够:
从 CucumberStudio API 获取数据
提供有关 CucumberStudio 项目、功能、场景和其他资源的背景信息
启用 AI 来生成和修改测试场景、功能和其他 CucumberStudio 资源
设置
先决条件
Node.js(v18+)
npm 或 yarn
CucumberStudio API 令牌
安装
克隆此存储库
安装依赖项:
npm install或者
yarn install在根目录中创建一个
.env文件,其内容如下:CUCUMBER_STUDIO_API_TOKEN=your_api_token_here PORT=3000
运行服务器
要启动服务器:
npm start
或者
yarn start
API 端点
MCP 服务器公开以下端点:
GET /context:从 CucumberStudio 获取上下文POST /apply:将更改应用于 CucumberStudio 资源GET /schema:获取 MCP 服务器的架构
实现细节
该 MCP 服务器遵循模型上下文协议规范,并与https://studio-api.cucumberstudio.com/上提供的 CucumberStudio API 集成。
执照
麻省理工学院
This server cannot be installed
Related Resources
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol server that enables AI assistants to interact with Kubernetes clusters through natural language, supporting core Kubernetes operations, monitoring, security, and diagnostics.Last updated -736MIT License
- -securityFlicense-qualityA demonstration implementation of the Model Context Protocol server that facilitates communication between AI models and external tools while maintaining context awareness.Last updated -
- -securityFlicense-qualityA comprehensive Model Context Protocol server implementation that enables AI assistants to interact with file systems, databases, GitHub repositories, web resources, and system tools while maintaining security and control.Last updated -62