MemGPT MCP サーバー
LLM用のメモリシステムを実装したTypeScriptベースのMCPサーバー。会話履歴を維持しながら、さまざまなLLMプロバイダーとチャットするためのツールを提供します。
特徴
ツール
chat- 現在のLLMプロバイダーにメッセージを送信するメッセージパラメータを取る
複数のプロバイダーをサポート(OpenAI、Anthropic、OpenRouter、Ollama)
get_memory- 会話履歴を取得する取得するメモリの数を指定するためのオプションの
limitパラメータパス
limit: nullタイムスタンプ付きで時系列順に思い出を返します
clear_memory- 会話履歴を消去する保存されたすべての記憶を削除します
use_provider- 異なる LLM プロバイダーを切り替えるOpenAI、Anthropic、OpenRouter、Ollamaをサポート
プロバイダの選択を持続する
use_model- 現在のプロバイダーの別のモデルに切り替えるプロバイダー固有のモデルをサポートします:
人類学的クロードモデル:
クロード3シリーズ:
claude-3-haiku: 応答時間が最速で、顧客サポートやコンテンツ管理などのタスクに最適です。claude-3-sonnet: 汎用性に優れたバランスの取れたパフォーマンスclaude-3-opus: 複雑な推論と高性能タスクのための高度なモデル
クロード3.5シリーズ:
claude-3.5-haiku: 速度とコスト効率の向上claude-3.5-sonnet: コンピュータインタラクション機能を備えた優れたパフォーマンス
OpenAI: 'gpt-4o'、'gpt-4o-mini'、'gpt-4-turbo'
OpenRouter: 「プロバイダー/モデル」形式の任意のモデル(例: 「openai/gpt-4」、「anthropic/claude-2」)
Ollama: ローカルで利用可能なモデル(例: 'llama2'、'codellama')
モデル選択を持続する
Related MCP server: File Context MCP
発達
依存関係をインストールします:
サーバーを構築します。
自動リビルドを使用した開発の場合:
インストール
Claude Desktop で使用するには、サーバー設定を追加します。
MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json
環境変数
OPENAI_API_KEY- OpenAI API キーANTHROPIC_API_KEY- Anthropic APIキーOPENROUTER_API_KEY- OpenRouter APIキー
デバッグ
MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。MCP Inspectorの使用をお勧めします。
インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。
最近の更新
Claude 3 および 3.5 シリーズのサポート (2024 年 3 月)
最新のClaudeモデルのサポートが追加されました:
クロード3シリーズ(俳句、ソネット、作品)
クロード3.5シリーズ(俳句、ソネット)
無制限のメモリ検索
無制限の会話履歴の取得をサポートしました
保存されているすべてのメモリを取得するには、
get_memoryツールで{ "limit": null }を使用します。{ "limit": n }を使用して、最新の n 個のメモリを取得します。指定されていない場合はデフォルトの制限は10です