marm-mcp
Memory Accurate Response Mode v2.2.6 - AIエージェントのためのインテリジェントな永続メモリシステム(HTTPおよびSTDIOをサポート)。メモリ管理の煩わしさから解放され、制御を取り戻しましょう。長期的なリコール、セッションの継続性、信頼性の高い会話履歴を実現し、LLMが重要な情報を決して見失わないようにします。
注: これは公式のMARMリポジトリです。すべての公式バージョンおよびリリースはここで管理されています。
フォーク版で実験を行うことは可能ですが、公式のアップデートは常にこのリポジトリから提供されます。
🚀 プロジェクトアップデート: 2026年第2四半期
現在、SysDX(断続的なPCIeフラッピングやTDRクラッシュを800以上の自動Pesterテストで検出する、フォレンジックグレードのWindowsハードウェア診断ツールキット)の立ち上げを最終調整中です。この開発フェーズはMARMのコアロジックにとって究極のストレステストとなっており、そこで得られた実環境での安定性とメモリ最適化をこのリポジトリに反映させています。
🛠️ 2026年第2四半期ロードマップ
セッション永続性の修正: ログエントリが実行される前にアクティブなセッションが正しく永続化されるよう、
marm_log_sessionの状態ロジックを解決します。インテリジェントなレート制限: 10分間のローカルホストロックアウトを削減し、MCPクライアントの処理をスムーズにするために
Retry-Afterヘッダーを実装します。ディレクトリベースのメモリ: プロジェクトごとのSQLiteアーキテクチャへ移行し、異なるコーディング環境間でメモリプールを分離できるようにします。
コンテキスト肥大化の削減: セッション開始時の不要なトークン消費を防ぐため、ドキュメントの遅延読み込みを実装します。
自動化チェックポイント: Nメッセージごとにセマンティックな要約をトリガーする、オプトイン式の「自動ログ」機能を追加します。
コアのクリーンアップ: 重複するルートファイルを削除し、単一の信頼できる情報源を確立して、将来的なインストール時の不整合を防ぎます。
皆様のご理解とご支援に感謝いたします。
MARMデモ動画: Dockerインストールと永続的AIメモリの動作
https://github.com/user-attachments/assets/c7c6a162-5408-4eda-a461-610b7e713dfe
このデモ動画では、MARM MCPのDockerプルから、claude add mcp transportコマンドを使用したClaudeへの接続、そして複数のAIエージェント(Claude、Gemini、Qwen)がMARMの永続的かつ普遍的なメモリを介してログやノートブックのエントリを即座に共有する様子を紹介しています。これにより、エージェント間でのシームレスなリコールと「絶対的な真実」のノートブックが実現されます。
なぜMARM MCPなのか: 問題と解決策
あなたのAIはすべてを忘れてしまいます。MARM MCPは忘れません。
現代のLLMは時間の経過とともにコンテキストを失い、以前のアイデアを繰り返し、要件から逸脱してしまいます。MARM MCPは、使用するあらゆるAIクライアントの背後に配置される、統合された永続的なMCPネイティブのメモリ層によってこれを解決します。セマンティック検索、構造化されたセッションログ、再利用可能なノートブック、スマートな要約を組み合わせることで、エージェントはセッションやツールをまたいで、一貫して以前の作業を記憶、参照、構築できるようになります。
MCPを一言で言うと: MARM MCPは、あらゆるAIツールの背後で永続的なメモリと構造化されたセッションコンテキストを提供し、エージェントがすべてのワークフローを通じて学習、記憶、連携できるようにします。
問題 → MARMの解決策
問題: 会話がリセットされる、決定事項が失われる、作業が複数のAIツールに分散する。
解決策: 重要な要素(決定事項、設定、コード、根拠)をキャプチャして分類し、キーワードではなく意味に基づいてそれらを呼び出す、普遍的で永続的なメモリ層。
導入前 vs 導入後
MARMなし: コンテキストの喪失、提案の繰り返し、スコープの逸脱、「ゼロからのやり直し」。
MARMあり: セッションメモリ、セッション間の継続性、決定事項の具体的なリコール、より迅速で正確な成果物。
MARM MCPが提供するもの
メモリ | マルチAI | アーキテクチャ |
セマンティック検索 - AI埋め込みを使用して意味で検索 | 統合メモリ層 - Claude、Qwen、Gemini、MCPクライアントで動作 | 18の完全なMCPツール - Model Context Protocolを完全にカバー |
自動分類 - コンテンツを分類(コード、プロジェクト、書籍、一般) | クロスプラットフォーム知能 - 異なるAIが共有知識から学習 | データベース最適化 - WALモードと接続プールを備えたSQLite |
永続的なセッション間メモリ - エージェントの会話を超えてメモリが存続 | ユーザー制御メモリ - 「独自の履歴を持ち込む」、きめ細かな制御 | レート制限 - 安定性のためのIPベースの階層 |
スマートリコール - コンテキスト対応のフォールバックを備えたベクトル類似性検索 | MCP準拠 - 予測可能なパフォーマンスのための応答サイズ管理 | |
Docker対応 - ヘルス/レディネスチェックを備えたコンテナ化デプロイ |
ユーザーの声
「MARMは、本番環境における産業オートメーションのワークフローを正常に処理しています。Windows 11 + Docker環境において、コンテナ再起動をまたいだセッション管理、永続的なログ記録、スマートリコールを検証しました。このシステムは複雑な技術的決定を確実に追跡し、デプロイサイクルを通じてデータの整合性を維持します。」
@Ophy21, GitHubユーザー (産業オートメーションエンジニア)
「MARMは、DevOpsや複雑なDockerプロジェクトにおいて非常に価値があることが証明されました。100%のメモリ精度を維持し、46のサービスとネットワーク構成のコンテキストを保持し、標準に準拠したPython/Terraform作業を可能にしました。セマンティック検索と自動セッションログにより、非同期やインフラの問題解決が大幅に容易になりました。評価: 9.5/10 - エンタープライズグレードのメモリ、技術標準、長期セッションのコード管理に不可欠です。」 @joe_nyc, Discordユーザー (DevOps/インフラエンジニア)
MARM MCPサーバーガイド
エコシステムを理解したところで、AIエージェントでMCPサーバーを使用する方法を説明します。
🚀 MCPクイックスタート (HTTP & Stdio)
Dockerインストール:
docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcpローカルhttpインストール:
pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcpStdioインストール:
pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.pyDocker (最速 - 30秒):
docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcpクイックローカルhttpインストール:
pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcpHttp手動JSON設定:
{
"mcpServers": {
"marm-memory": {
"httpUrl": "http://localhost:8001/mcp",
"authentication": {
"type": "oauth",
"clientId": "local_client_b6f3a01e",
"clientSecret": "local_secret_ad6703cd2b4243ab",
"authorizationUrl": "http://localhost:8001/oauth/authorize",
"tokenUrl": "http://localhost:8001/oauth/token"
}
}
}
}ローカル開発認証 (開発専用)
MARMには、ローカルテスト用のモックOAuth 2.0認証情報が含まれています。これは本番用の認証システムではありません。
なぜハードコードされた認証情報なのか? ローカルで開発する場合、外部のOAuthプロバイダー(GitHub、Googleなど)を利用できません。MARMには、外部依存関係なしで完全なMCP認証フローをテストできるように、開発用認証情報が含まれています。
ローカル開発には、以下の認証情報を使用してください:
クライアントID:
local_client_b6f3a01eクライアントシークレット:
local_secret_ad6703cd2b4243ab
サーバーは、開発中にのみこれらのハードコードされた値に対して検証を行います。
本番デプロイ用: このセクション全体を実際のOAuth 2.1認証に置き換えてください。これらのハードコードされた認証情報は開発専用であり、本番環境には適していません。
ロードマップ: チームデプロイやクラウド環境をサポートするため、将来のリリースでマルチユーザーOAuth認証を計画しています。
STDIOトランスポートサポート (2025年12月7日 新機能)
MARM MCPサーバーは、stdin/stdout通信を必要とするMCPクライアント(オーケストレーションプラットフォーム、CLIツール、統合開発環境)向けにSTDIOトランスポートをサポートしています。
クイックガイド Stdioインストール
pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.pyステップ1:
pip install marm-mcp-server==2.2.6ステップ2: STDIO固有の依存関係をインストール:
pip install -r marm-mcp-server/requirements_stdio.txtステップ3: 設定
以下の2つのセットアップ方法から1つを選択してください:
オプション1: CLI設定 (推奨)
プラットフォームのMCPコマンドを使用して、MARMをSTDIOサーバーとして追加します:
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"<platform>を以下に置き換えてください:
qwen(Qwen CLI用)claude(Claude CLI用)gemini(Gemini CLI用)
例:
claude mcp add --transport stdio marm-memory-stdio python "/home/user/marm-mcp-server/server_stdio.py"オプション2: JSON設定
手動設定が必要なIDEやクライアントの場合は、設定ファイルに以下を追加してください:
macOS/Linux:
{
"mcpServers": {
"marm-memory": {
"command": "python",
"args": ["/path/to/marm-mcp-server/server_stdio.py"],
"cwd": "/path/to/marm-mcp-server"
}
}
}Windows:
{
"mcpServers": {
"marm-memory": {
"command": "python",
"args": ["C:\\Users\\YourUsername\\path\\to\\marm-mcp-server\\server_stdio.py"],
"cwd": "C:\\Users\\YourUsername\\path\\to\\marm-mcp-server"
}
}
}ステップ4 (オプション): サーバーの手動実行
サーバーをローカルで実行するには:
python marm-mcp-server/server_stdio.pyサーバーが起動し、接続されたMCPクライアントからのJSON-RPC 2.0メッセージをstdin/stdoutで待機します。
設定に関する注意点
pythonを使用してください (Windowsでpython3は使用しないでください)cwdパラメータは必須です。これにより、サーバーはコアモジュールを見つけることができます引数として
runを含めないでください/path/to/を実際のインストールパスに置き換えてください
サポートされているプラットフォーム
以下で動作確認済みです:
✅ Qwen CLI (Windows, macOS, Linux)
✅ Claude CLI (Windows, macOS, Linux)
✅ Gemini CLI (Windows, macOS, Linux)
✅ Cursor (Windows, macOS, Linux) — JSON設定を使用
その他のプラットフォームについて
上記にリストされていないプラットフォームの場合:
JSON設定を試す — ほとんどのMCPクライアントは標準の設定フォーマットをサポートしています
AI支援を利用する — プラットフォーム名とMCPドキュメントをAIアシスタントに提供してください。上記で示したコマンドパターンの適応を支援してくれます
プラットフォームのドキュメントを確認する — STDIOトランスポートの設定については、MCPクライアントのドキュメントを参照してください
WebSocketトランスポートサポート (ベータ版 - テスト中)
MARM MCPサーバーには、リアルタイムMCP通信のための実験的なWebSocketサポートが含まれています。このトランスポートは内部で実装およびテストされていますが、本番ワークフローではまだ積極的に使用されていません。
クイックガイド WebSocketインストール
pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server/server.pyWebSocket経由で接続 (ベータ):
# Claude CLI
claude mcp add marm-memory ws://localhost:8001/mcp/ws
# Grok CLI
grok mcp add marm-memory --transport websocket --url "ws://localhost:8001/mcp/ws"WebSocketエンドポイント: ws://localhost:8001/mcp/ws
WebSocketの機能
リアルタイム通信 - 全二重WebSocketプロトコルサポート
JSON-RPC 2.0準拠 - 19のMCPメソッドすべてをサポート
同じツールカバレッジ - すべてのMARMメモリおよびセッションツールにアクセス可能
ベータステータス - テスト済みですが積極的に使用されていません。フィードバックを歓迎します
サポートされているプラットフォーム
✅ Claude CLI (WebSocketトランスポート)
✅ Grok CLI (WebSocketトランスポート)
✅ Qwen CLI (手動WebSocket設定が必要)
✅ Gemini CLI (手動WebSocket設定が必要)
トランスポートの比較
機能 | HTTP | STDIO | WebSocket |
デプロイ | HTTPサーバーが必要 | プロセスベース | HTTPサーバー |
リソース分離 | 共有サーバー | プロセスごと | 共有サーバー |
プラットフォームサポート | Webベースクライアント | CLI/オーケストレーションツール | CLIツール (ベータ) |
設定の複雑さ | 中 | 低 | 中 |
ユースケース | Webアプリ、リモートアクセス | ローカルツール、自動化 | リアルタイムアプリ (ベータ) |
ステータス | 安定 | 安定 | ベータ |
重要な情報:
サーバーエンドポイント: `http
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lyellr88/marm-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server