MemGPT MCP サーバー
LLM用のメモリシステムを実装したTypeScriptベースのMCPサーバー。会話履歴を維持しながら、さまざまなLLMプロバイダーとチャットするためのツールを提供します。
特徴
ツール
chat
- 現在のLLMプロバイダーにメッセージを送信するメッセージパラメータを取る
複数のプロバイダーをサポート(OpenAI、Anthropic、OpenRouter、Ollama)
get_memory
- 会話履歴を取得する取得するメモリの数を指定するためのオプションの
limit
パラメータパス
limit: null
タイムスタンプ付きで時系列順に思い出を返します
clear_memory
- 会話履歴を消去する保存されたすべての記憶を削除します
use_provider
- 異なる LLM プロバイダーを切り替えるOpenAI、Anthropic、OpenRouter、Ollamaをサポート
プロバイダの選択を持続する
use_model
- 現在のプロバイダーの別のモデルに切り替えるプロバイダー固有のモデルをサポートします:
人類学的クロードモデル:
クロード3シリーズ:
claude-3-haiku
: 応答時間が最速で、顧客サポートやコンテンツ管理などのタスクに最適です。claude-3-sonnet
: 汎用性に優れたバランスの取れたパフォーマンスclaude-3-opus
: 複雑な推論と高性能タスクのための高度なモデル
クロード3.5シリーズ:
claude-3.5-haiku
: 速度とコスト効率の向上claude-3.5-sonnet
: コンピュータインタラクション機能を備えた優れたパフォーマンス
OpenAI: 'gpt-4o'、'gpt-4o-mini'、'gpt-4-turbo'
OpenRouter: 「プロバイダー/モデル」形式の任意のモデル(例: 「openai/gpt-4」、「anthropic/claude-2」)
Ollama: ローカルで利用可能なモデル(例: 'llama2'、'codellama')
モデル選択を持続する
発達
依存関係をインストールします:
サーバーを構築します。
自動リビルドを使用した開発の場合:
インストール
Claude Desktop で使用するには、サーバー設定を追加します。
MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows の場合: %APPDATA%/Claude/claude_desktop_config.json
環境変数
OPENAI_API_KEY
- OpenAI API キーANTHROPIC_API_KEY
- Anthropic APIキーOPENROUTER_API_KEY
- OpenRouter APIキー
デバッグ
MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。MCP Inspectorの使用をお勧めします。
インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。
最近の更新
Claude 3 および 3.5 シリーズのサポート (2024 年 3 月)
最新のClaudeモデルのサポートが追加されました:
クロード3シリーズ(俳句、ソネット、作品)
クロード3.5シリーズ(俳句、ソネット)
無制限のメモリ検索
無制限の会話履歴の取得をサポートしました
保存されているすべてのメモリを取得するには、
get_memory
ツールで{ "limit": null }
を使用します。{ "limit": n }
を使用して、最新の n 個のメモリを取得します。指定されていない場合はデフォルトの制限は10です
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
大規模言語モデル (LLM) 用のメモリ システムを提供する TypeScript ベースのサーバー。これにより、ユーザーは複数の LLM プロバイダーと対話しながら会話履歴を維持し、プロバイダーとモデル構成を管理するためのツールを利用できるようになります。
Related Resources
Related MCP Servers
- -securityAlicense-qualityThis is a server that lets your LLMs (like Claude) talk directly to your BigQuery data! Think of it as a friendly translator that sits between your AI assistant and your database, making sure they can chat securely and efficiently.Last updated -91121MIT License
- -securityFlicense-qualityThis server provides an API to query Large Language Models using context from local files, supporting various models and file types for context-aware responses.Last updated -1
- -securityAlicense-qualityA server that enables Large Language Models to discover and interact with REST APIs defined by OpenAPI specifications through the Model Context Protocol.Last updated -893155MIT License
- -securityAlicense-qualityBridges Large Language Models with Language Server Protocol interfaces, allowing LLMs to access LSP's hover information, completions, diagnostics, and code actions for improved code suggestions.Last updated -73MIT License