MemGPT MCP Server

by Vic563

Integrations

  • Allows communication with locally available Ollama models (like llama2, codellama) while maintaining persistent conversation history.

  • Enables messaging with OpenAI models including gpt-4o, gpt-4o-mini, and gpt-4-turbo while preserving conversation memory across sessions.

MemGPT MCP サーバー

LLM用のメモリシステムを実装したTypeScriptベースのMCPサーバー。会話履歴を維持しながら、さまざまなLLMプロバイダーとチャットするためのツールを提供します。

特徴

ツール

  • chat - 現在のLLMプロバイダーにメッセージを送信する
    • メッセージパラメータを取る
    • 複数のプロバイダーをサポート(OpenAI、Anthropic、OpenRouter、Ollama)
  • get_memory - 会話履歴を取得する
    • 取得するメモリの数を指定するためのオプションのlimitパラメータ
    • パスlimit: null
    • タイムスタンプ付きで時系列順に思い出を返します
  • clear_memory - 会話履歴を消去する
    • 保存されたすべての記憶を削除します
  • use_provider - 異なる LLM プロバイダーを切り替える
    • OpenAI、Anthropic、OpenRouter、Ollamaをサポート
    • プロバイダの選択を持続する
  • use_model - 現在のプロバイダーの別のモデルに切り替える
    • プロバイダー固有のモデルをサポートします:
      • 人類学的クロードモデル:
        • クロード3シリーズ:
          • claude-3-haiku : 応答時間が最速で、顧客サポートやコンテンツ管理などのタスクに最適です。
          • claude-3-sonnet : 汎用性に優れたバランスの取れたパフォーマンス
          • claude-3-opus : 複雑な推論と高性能タスクのための高度なモデル
        • クロード3.5シリーズ:
          • claude-3.5-haiku : 速度とコスト効率の向上
          • claude-3.5-sonnet : コンピュータインタラクション機能を備えた優れたパフォーマンス
      • OpenAI: 'gpt-4o'、'gpt-4o-mini'、'gpt-4-turbo'
      • OpenRouter: 「プロバイダー/モデル」形式の任意のモデル(例: 「openai/gpt-4」、「anthropic/claude-2」)
      • Ollama: ローカルで利用可能なモデル(例: 'llama2'、'codellama')
    • モデル選択を持続する

発達

依存関係をインストールします:

npm install

サーバーを構築します。

npm run build

自動リビルドを使用した開発の場合:

npm run watch

インストール

Claude Desktop で使用するには、サーバー設定を追加します。

MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "letta-memgpt": { "command": "/path/to/memgpt-server/build/index.js", "env": { "OPENAI_API_KEY": "your-openai-key", "ANTHROPIC_API_KEY": "your-anthropic-key", "OPENROUTER_API_KEY": "your-openrouter-key" } } } }

環境変数

  • OPENAI_API_KEY - OpenAI API キー
  • ANTHROPIC_API_KEY - Anthropic APIキー
  • OPENROUTER_API_KEY - OpenRouter APIキー

デバッグ

MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。MCP Inspectorの使用をお勧めします。

npm run inspector

インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。

最近の更新

Claude 3 および 3.5 シリーズのサポート (2024 年 3 月)

  • 最新のClaudeモデルのサポートが追加されました:
    • クロード3シリーズ(俳句、ソネット、作品)
    • クロード3.5シリーズ(俳句、ソネット)

無制限のメモリ検索

  • 無制限の会話履歴の取得をサポートしました
  • 保存されているすべてのメモリを取得するには、 get_memoryツールで{ "limit": null }を使用します。
  • { "limit": n }を使用して、最新の n 個のメモリを取得します。
  • 指定されていない場合はデフォルトの制限は10です
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

大規模言語モデル (LLM) 用のメモリ システムを提供する TypeScript ベースのサーバー。これにより、ユーザーは複数の LLM プロバイダーと対話しながら会話履歴を維持し、プロバイダーとモデル構成を管理するためのツールを利用できるようになります。

  1. Features
    1. Tools
  2. Development
    1. Installation
      1. Environment Variables
      2. Debugging
    2. Recent Updates
      1. Claude 3 and 3.5 Series Support (March 2024)
      2. Unlimited Memory Retrieval
    ID: 3cynbzxe8h