Skip to main content
Glama

Memory Context Provider Server

by Srish-ty

メモリコンテキストプロバイダー(MCP)サーバー

LLM インタラクションのコンテキストを管理し、各ユーザーに関連するコンテキストを保存および提供するサーバー。

特徴

  • ユーザーコンテキストのメモリ内保存
  • 最後の5つのプロンプトによるコンテキスト管理
  • RESTful APIエンドポイント
  • TypeScriptサポート

設定

  1. 依存関係をインストールします:
    npm install
  2. 開発サーバーを起動します。
    npm run dev

APIエンドポイント

POST /コンテキスト/:ユーザーID

ユーザーのコンテキストに新しいプロンプトを追加し、更新されたコンテキストを取得します。

リクエスト本文:

{ "prompt": "Your prompt here" }

応答:

{ "context": "Combined context from last 5 prompts" }

GET /context/

ユーザーの現在のコンテキストを取得します。

応答:

{ "context": "Current context" }

/context/ を削除

ユーザーのコンテキストを明確にします。

応答:

{ "message": "Context cleared" }

発達

  • npm run dev : ホットリロードで開発サーバーを起動する
  • npm run build : TypeScript ファイルをビルドする
  • npm start : ビルドされたファイルを実行する
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

LLM インタラクションの会話コンテキストを管理し、最近のプロンプトを保存し、REST API エンドポイントを介して各ユーザーに関連するコンテキストを提供するサーバー。

  1. 特徴
    1. 設定
      1. APIエンドポイント
        1. POST /コンテキスト/:ユーザーID
        2. GET /context/:userId
        3. /context/:userId を削除
      2. 発達

        Related MCP Servers

        • -
          security
          A
          license
          -
          quality
          A Model Context Protocol server that integrates LLMs with Frontapp's customer communication platform, enabling access to conversations, contacts, and tags while supporting real-time updates via webhooks.
          Last updated -
          4
          TypeScript
          MIT License
        • -
          security
          A
          license
          -
          quality
          A Model Context Protocol Server that enables LLMs to interact with and execute REST API calls through natural language prompts, supporting GET/PUT/POST/PATCH operations on configured APIs.
          Last updated -
          6
          Python
          Apache 2.0
        • -
          security
          F
          license
          -
          quality
          A conversational application server that integrates LLM capabilities via Ollama with vector memory context, supporting multiple users, sessions, automatic history summarization, and a plugin system for executing real actions.
          Last updated -
          Python
        • A
          security
          F
          license
          A
          quality
          A Model Context Protocol server that provides specialized prompt suggestions for backend development, frontend development, and general tasks to help LLMs generate better content.
          Last updated -
          4
          4
          1
          TypeScript

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/Srish-ty/MCP-Testing-interface-for-LLMs'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server