Skip to main content
Glama

MemGPT MCP Server

by Vic563

MemGPT MCP サーバー

LLM用のメモリシステムを実装したTypeScriptベースのMCPサーバー。会話履歴を維持しながら、さまざまなLLMプロバイダーとチャットするためのツールを提供します。

特徴

ツール

  • chat - 現在のLLMプロバイダーにメッセージを送信する
    • メッセージパラメータを取る
    • 複数のプロバイダーをサポート(OpenAI、Anthropic、OpenRouter、Ollama)
  • get_memory - 会話履歴を取得する
    • 取得するメモリの数を指定するためのオプションのlimitパラメータ
    • パスlimit: null
    • タイムスタンプ付きで時系列順に思い出を返します
  • clear_memory - 会話履歴を消去する
    • 保存されたすべての記憶を削除します
  • use_provider - 異なる LLM プロバイダーを切り替える
    • OpenAI、Anthropic、OpenRouter、Ollamaをサポート
    • プロバイダの選択を持続する
  • use_model - 現在のプロバイダーの別のモデルに切り替える
    • プロバイダー固有のモデルをサポートします:
      • 人類学的クロードモデル:
        • クロード3シリーズ:
          • claude-3-haiku : 応答時間が最速で、顧客サポートやコンテンツ管理などのタスクに最適です。
          • claude-3-sonnet : 汎用性に優れたバランスの取れたパフォーマンス
          • claude-3-opus : 複雑な推論と高性能タスクのための高度なモデル
        • クロード3.5シリーズ:
          • claude-3.5-haiku : 速度とコスト効率の向上
          • claude-3.5-sonnet : コンピュータインタラクション機能を備えた優れたパフォーマンス
      • OpenAI: 'gpt-4o'、'gpt-4o-mini'、'gpt-4-turbo'
      • OpenRouter: 「プロバイダー/モデル」形式の任意のモデル(例: 「openai/gpt-4」、「anthropic/claude-2」)
      • Ollama: ローカルで利用可能なモデル(例: 'llama2'、'codellama')
    • モデル選択を持続する

発達

依存関係をインストールします:

npm install

サーバーを構築します。

npm run build

自動リビルドを使用した開発の場合:

npm run watch

インストール

Claude Desktop で使用するには、サーバー設定を追加します。

MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "letta-memgpt": { "command": "/path/to/memgpt-server/build/index.js", "env": { "OPENAI_API_KEY": "your-openai-key", "ANTHROPIC_API_KEY": "your-anthropic-key", "OPENROUTER_API_KEY": "your-openrouter-key" } } } }

環境変数

  • OPENAI_API_KEY - OpenAI API キー
  • ANTHROPIC_API_KEY - Anthropic APIキー
  • OPENROUTER_API_KEY - OpenRouter APIキー

デバッグ

MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。MCP Inspectorの使用をお勧めします。

npm run inspector

インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。

最近の更新

Claude 3 および 3.5 シリーズのサポート (2024 年 3 月)

  • 最新のClaudeモデルのサポートが追加されました:
    • クロード3シリーズ(俳句、ソネット、作品)
    • クロード3.5シリーズ(俳句、ソネット)

無制限のメモリ検索

  • 無制限の会話履歴の取得をサポートしました
  • 保存されているすべてのメモリを取得するには、 get_memoryツールで{ "limit": null }を使用します。
  • { "limit": n }を使用して、最新の n 個のメモリを取得します。
  • 指定されていない場合はデフォルトの制限は10です
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

大規模言語モデル (LLM) 用のメモリ システムを提供する TypeScript ベースのサーバー。これにより、ユーザーは複数の LLM プロバイダーと対話しながら会話履歴を維持し、プロバイダーとモデル構成を管理するためのツールを利用できるようになります。

  1. 特徴
    1. ツール
  2. 発達
    1. インストール
      1. 環境変数
      2. デバッグ
    2. 最近の更新
      1. Claude 3 および 3.5 シリーズのサポート (2024 年 3 月)
      2. 無制限のメモリ検索

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      Runs a language server and provides tools for communicating with it. Language servers excel at tasks that LLMs often struggle with, such as precisely understanding types, understanding relationships, and providing accurate symbol references.
      Last updated -
      401
      Go
      BSD 3-Clause
      • Apple
      • Linux
    • -
      security
      F
      license
      -
      quality
      A TypeScript-based MCP server that enables LLM agents to interact with Gel databases through natural language, providing tools to learn database schemas, validate and execute EdgeQL queries.
      Last updated -
      5
      TypeScript
    • -
      security
      F
      license
      -
      quality
      A TypeScript MCP server that allows querying documents using LLMs with context from locally stored repositories and text files through a RAG (Retrieval-Augmented Generation) system.
      Last updated -
      1
      JavaScript
      • Apple
      • Linux
    • -
      security
      A
      license
      -
      quality
      An MCP server that enables LLMs to understand and work with TypeScript APIs they haven't been trained on by providing structured access to TypeScript type definitions and documentation.
      Last updated -
      73
      26
      TypeScript
      MIT License

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/Vic563/Memgpt-MCP-Server'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server