Skip to main content
Glama
thana0623

prompts-mcp-server

by thana0623

Server Configuration

Describes the environment variables required to run the server.

NameRequiredDescriptionDefault
PROJECT_ROOTNoTarget project root directoryprocess.cwd()

Capabilities

Features and capabilities supported by this server

CapabilityDetails
tools
{}

Tools

Functions exposed to the LLM to take actions

NameDescription
init_promptsA

【初始化】扫描目标项目,自动生成原始 prompts 体系(context.md / workflow-log.md / recent-5.md / summary-10.md / todos.md / dev-rules.md / modules/)。已有文件不会覆盖。

bootstrapA

【一键启动】自动读取传递链(context.md + daily + recent-5 + summary-10 + todos + 模块记录)。智能体启动时第一步调用。

check_requirementsA

【需求澄清】执行 5 项需求明确标准检查。不明确时生成追问问题,禁止猜测执行。

make_planA

【生成计划】在需求已澄清(check_requirements 全部 ✅)后,生成可行执行计划,等待用户确认。

log_dialogB

【记录日志】记录一次对话到传递链(daily + recent-5 + summary-10 + log-state.json)。

log_moduleA

【模块记录】按模块记录一次修改(目录式)。修改功能前先 read_module,修改后调用此工具。

read_moduleB

【读取模块记录】修改功能前调用,读取对应模块的历史修改记录。

update_todosB

【更新待办】更新 todos.md 中的待办事项。

Prompts

Interactive templates invoked by user choice

NameDescription

No prompts

Resources

Contextual data attached and managed by the client

NameDescription

No resources

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/thana0623/prompts-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server