-
securityF
license-
qualityA Model Context Protocol server that allows LLMs to execute shell commands and receive their output in a controlled manner.
Last updated -
3
Python
使用 Express 和 TypeScript 构建的无状态模型上下文协议 (MCP) 服务器。
该服务器通过三个 MCP 组件实现了一个简单的回显端点:
echo://{message}
- 将消息作为资源返回echo
——将提供的消息作为工具响应回显echo
- 使用提供的消息创建用户提示该服务器实现了模型上下文协议(MCP),这是 LLM 与外部数据和功能交互的标准化方式。它公开了一个响应 JSON-RPC 请求的无状态 API 端点。
向/mcp
发送一个带有 JSON-RPC 负载的 POST 请求:
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
无状态模型上下文协议服务器,通过资源、工具和提示组件实现简单的回显功能,使 LLM 能够通过标准化 MCP 交互回显消息。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/jhgaylor/express-mcp-server-echo'
If you have feedback or need assistance with the MCP directory API, please join our Discord server