Memory Context Provider Server
by Srish-ty
内存上下文提供程序 (MCP) 服务器
管理 LLM 交互上下文的服务器,存储并为每个用户提供相关上下文。
特征
用户上下文的内存存储
使用最后 5 个提示进行上下文管理
RESTful API 端点
TypeScript 支持
Related MCP server: OpenAPI MCP Server
设置
安装依赖项:
npm install启动开发服务器:
npm run dev
API 端点
POST /上下文/:用户ID
向用户上下文添加新提示并获取更新的上下文。
请求正文:
{
"prompt": "Your prompt here"
}回复:
{
"context": "Combined context from last 5 prompts"
}获取/上下文/:用户ID
获取用户的当前上下文。
回复:
{
"context": "Current context"
}删除/上下文/:用户ID
为用户提供清晰的背景。
回复:
{
"message": "Context cleared"
}发展
npm run dev:使用热重载启动开发服务器npm run build:构建 TypeScript 文件npm start:运行构建的文件
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Srish-ty/MCP-Testing-interface-for-LLMs'
If you have feedback or need assistance with the MCP directory API, please join our Discord server