Skip to main content
Glama
Srish-ty
by Srish-ty

内存上下文提供程序 (MCP) 服务器

管理 LLM 交互上下文的服务器,存储并为每个用户提供相关上下文。

特征

  • 用户上下文的内存存储

  • 使用最后 5 个提示进行上下文管理

  • RESTful API 端点

  • TypeScript 支持

Related MCP server: OpenAPI MCP Server

设置

  1. 安装依赖项:

    npm install
  2. 启动开发服务器:

    npm run dev

API 端点

POST /上下文/:用户ID

向用户上下文添加新提示并获取更新的上下文。

请求正文:

{ "prompt": "Your prompt here" }

回复:

{ "context": "Combined context from last 5 prompts" }

获取/上下文/:用户ID

获取用户的当前上下文。

回复:

{ "context": "Current context" }

删除/上下文/:用户ID

为用户提供清晰的背景。

回复:

{ "message": "Context cleared" }

发展

  • npm run dev :使用热重载启动开发服务器

  • npm run build :构建 TypeScript 文件

  • npm start :运行构建的文件

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Srish-ty/MCP-Testing-interface-for-LLMs'

If you have feedback or need assistance with the MCP directory API, please join our Discord server