Skip to main content
Glama
Srish-ty

Memory Context Provider Server

by Srish-ty

内存上下文提供程序 (MCP) 服务器

管理 LLM 交互上下文的服务器,存储并为每个用户提供相关上下文。

特征

  • 用户上下文的内存存储

  • 使用最后 5 个提示进行上下文管理

  • RESTful API 端点

  • TypeScript 支持

Related MCP server: OpenAPI MCP Server

设置

  1. 安装依赖项:

    npm install
  2. 启动开发服务器:

    npm run dev

API 端点

POST /上下文/:用户ID

向用户上下文添加新提示并获取更新的上下文。

请求正文:

{
  "prompt": "Your prompt here"
}

回复:

{
  "context": "Combined context from last 5 prompts"
}

获取/上下文/:用户ID

获取用户的当前上下文。

回复:

{
  "context": "Current context"
}

删除/上下文/:用户ID

为用户提供清晰的背景。

回复:

{
  "message": "Context cleared"
}

发展

  • npm run dev :使用热重载启动开发服务器

  • npm run build :构建 TypeScript 文件

  • npm start :运行构建的文件

A
license - permissive license
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Srish-ty/MCP-Testing-interface-for-LLMs'

If you have feedback or need assistance with the MCP directory API, please join our Discord server