Skip to main content
Glama

MemGPT MCP Server

by Vic563

MemGPT MCP サーバー

LLM用のメモリシステムを実装したTypeScriptベースのMCPサーバー。会話履歴を維持しながら、さまざまなLLMプロバイダーとチャットするためのツールを提供します。

特徴

ツール

  • chat - 現在のLLMプロバイダーにメッセージを送信する
    • メッセージパラメータを取る
    • 複数のプロバイダーをサポート(OpenAI、Anthropic、OpenRouter、Ollama)
  • get_memory - 会話履歴を取得する
    • 取得するメモリの数を指定するためのオプションのlimitパラメータ
    • パスlimit: null
    • タイムスタンプ付きで時系列順に思い出を返します
  • clear_memory - 会話履歴を消去する
    • 保存されたすべての記憶を削除します
  • use_provider - 異なる LLM プロバイダーを切り替える
    • OpenAI、Anthropic、OpenRouter、Ollamaをサポート
    • プロバイダの選択を持続する
  • use_model - 現在のプロバイダーの別のモデルに切り替える
    • プロバイダー固有のモデルをサポートします:
      • 人類学的クロードモデル:
        • クロード3シリーズ:
          • claude-3-haiku : 応答時間が最速で、顧客サポートやコンテンツ管理などのタスクに最適です。
          • claude-3-sonnet : 汎用性に優れたバランスの取れたパフォーマンス
          • claude-3-opus : 複雑な推論と高性能タスクのための高度なモデル
        • クロード3.5シリーズ:
          • claude-3.5-haiku : 速度とコスト効率の向上
          • claude-3.5-sonnet : コンピュータインタラクション機能を備えた優れたパフォーマンス
      • OpenAI: 'gpt-4o'、'gpt-4o-mini'、'gpt-4-turbo'
      • OpenRouter: 「プロバイダー/モデル」形式の任意のモデル(例: 「openai/gpt-4」、「anthropic/claude-2」)
      • Ollama: ローカルで利用可能なモデル(例: 'llama2'、'codellama')
    • モデル選択を持続する

発達

依存関係をインストールします:

npm install

サーバーを構築します。

npm run build

自動リビルドを使用した開発の場合:

npm run watch

インストール

Claude Desktop で使用するには、サーバー設定を追加します。

MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "letta-memgpt": { "command": "/path/to/memgpt-server/build/index.js", "env": { "OPENAI_API_KEY": "your-openai-key", "ANTHROPIC_API_KEY": "your-anthropic-key", "OPENROUTER_API_KEY": "your-openrouter-key" } } } }

環境変数

  • OPENAI_API_KEY - OpenAI API キー
  • ANTHROPIC_API_KEY - Anthropic APIキー
  • OPENROUTER_API_KEY - OpenRouter APIキー

デバッグ

MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。MCP Inspectorの使用をお勧めします。

npm run inspector

インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。

最近の更新

Claude 3 および 3.5 シリーズのサポート (2024 年 3 月)

  • 最新のClaudeモデルのサポートが追加されました:
    • クロード3シリーズ(俳句、ソネット、作品)
    • クロード3.5シリーズ(俳句、ソネット)

無制限のメモリ検索

  • 無制限の会話履歴の取得をサポートしました
  • 保存されているすべてのメモリを取得するには、 get_memoryツールで{ "limit": null }を使用します。
  • { "limit": n }を使用して、最新の n 個のメモリを取得します。
  • 指定されていない場合はデフォルトの制限は10です
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

大規模言語モデル (LLM) 用のメモリ システムを提供する TypeScript ベースのサーバー。これにより、ユーザーは複数の LLM プロバイダーと対話しながら会話履歴を維持し、プロバイダーとモデル構成を管理するためのツールを利用できるようになります。

  1. 特徴
    1. ツール
  2. 発達
    1. インストール
      1. 環境変数
      2. デバッグ
    2. 最近の更新
      1. Claude 3 および 3.5 シリーズのサポート (2024 年 3 月)
      2. 無制限のメモリ検索

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      This is a server that lets your LLMs (like Claude) talk directly to your BigQuery data! Think of it as a friendly translator that sits between your AI assistant and your database, making sure they can chat securely and efficiently.
      Last updated -
      1
      171
      111
      JavaScript
      MIT License
    • -
      security
      F
      license
      -
      quality
      This server provides an API to query Large Language Models using context from local files, supporting various models and file types for context-aware responses.
      Last updated -
      1
      TypeScript
    • -
      security
      A
      license
      -
      quality
      A server that enables Large Language Models to discover and interact with REST APIs defined by OpenAPI specifications through the Model Context Protocol.
      Last updated -
      1,641
      136
      TypeScript
      MIT License
      • Apple
    • -
      security
      A
      license
      -
      quality
      Bridges Large Language Models with Language Server Protocol interfaces, allowing LLMs to access LSP's hover information, completions, diagnostics, and code actions for improved code suggestions.
      Last updated -
      63
      TypeScript
      MIT License

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/Vic563/Memgpt-MCP-Server'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server