Integrations
Uses Markdown as the primary file format for storing knowledge, with specific patterns for semantic structure.
Works seamlessly with Obsidian for knowledge management, visualization, and editing of the Basic Memory knowledge base files.
Provides import capability for ChatGPT conversation history into the Basic Memory knowledge base.
基本的なメモリ
Basic Memory を使用すると、Claude のような大規模言語モデル (LLM) との自然な会話を通じて永続的な知識を構築できます。その際、すべての情報はシンプルな Markdown ファイルとしてコンピュータ上に保存されます。Model Context Protocol (MCP) を使用することで、互換性のある LLM からローカル知識ベースの読み書きが可能になります。
- ウェブサイト: https://basicmachines.co
- ドキュメント: https://memory.basicmachines.co
中断したところから会話を再開しましょう
- AIアシスタントは新しい会話でローカルファイルからコンテキストを読み込むことができる
- メモはリアルタイムでMarkdownファイルとしてローカルに保存されます
- プロジェクトの知識や特別な指示は必要ありません
https://github.com/user-attachments/assets/a55d8238-8dd0-454a-be4c-8860dbbd0ddc
クイックスタート
~/basic-memory
(デフォルトのディレクトリの場所) 内のファイルを介して共有コンテキストを表示できます。
Smithery経由の代替インストール
Smitheryを使用すると、Claude Desktop の基本メモリを自動的に構成できます。
これにより、Claude Desktop の設定ファイルを手動で編集することなく、Basic Memory をインストールおよび設定できます。Smithery サーバーは MCP サーバーコンポーネントをホストし、データは Markdown ファイルとしてローカルに保存されたままになります。
グラマ.ai
なぜ基本メモリなのか?
LLMでのやり取りのほとんどは一時的なものです。質問をして答えを得ると、すべて忘れ去られてしまいます。それぞれの会話は、以前の文脈や知識を持たずに、全く新しいものから始まります。現在の回避策には限界があります。
- チャット履歴は会話を記録しますが、構造化された知識ではありません
- RAGシステムはドキュメントを照会できるが、LLMに書き戻すことはできない。
- ベクターデータベースは複雑な設定が必要で、クラウド上に保存されることが多い
- ナレッジグラフを維持するには、通常、特別なツールが必要です。
Basic Memoryは、人間とLLMの両方が読み書きできる構造化されたMarkdownファイルというシンプルなアプローチでこれらの問題に対処します。主な利点は以下のとおりです。
- **ローカルファースト:**すべての知識はあなたが管理するファイルに保存されます
- **双方向:**ユーザーと LLM の両方が同じファイルを読み書きします
- **構造化されながらもシンプル:**使い慣れたMarkdownとセマンティックパターンを使用
- トラバース可能な知識グラフ: LLMはトピック間のリンクをたどることができる
- 標準フォーマット: Obsidianなどの既存のエディタで動作します
- **軽量インフラストラクチャ:**ローカル SQLite データベースにインデックスされたローカルファイルのみ
基本メモリを使用すると、次のことが可能になります。
- 過去の知識に基づいた会話をする
- 自然な会話の中で構造化されたメモを作成する
- 以前話し合った内容を覚えている法学修士と会話をする
- 知識グラフを意味的にナビゲートする
- すべてをローカルで管理
- Obsidianなどの使い慣れたツールを使用してメモを表示および編集します
- 時間の経過とともに成長する個人の知識ベースを構築する
実際の仕組み
コーヒーの淹れ方を研究していて、その知識を記録したいとしましょう。その仕組みは以下のとおりです。
- 通常通りチャットを始めましょう:
...会話を続けます。
- この知識を体系化するために LLM に協力を求めてください。
LLM はシステム上に新しい Markdown ファイルを作成します (Obsidian またはエディターですぐに確認できます)。
メモには、シンプルな Markdown 形式を使用して、セマンティック コンテンツと他のトピックへのリンクが埋め込まれます。
- このファイルは、コンピューターの現在のプロジェクト ディレクトリ (デフォルトでは
~/$HOME/basic-memory
) にリアルタイムで表示されます。
- リアルタイム同期はv0.12.0バージョンでデフォルトで有効になっています
- LLM とのチャットでは、次のトピックを参照できます。
LLMはナレッジグラフから豊富なコンテキストを構築できるようになりました。例えば:
関連する各ドキュメントにより、より多くのコンテキストが得られ、知識ベースの豊富な意味的理解が構築されます。
これにより、次の双方向フローが作成されます。
- 人間がMarkdownファイルを作成し編集する
- LLMはMCPプロトコルを介して読み書きします
- 同期により一貫性が保たれます
- すべての知識はローカル ファイルに保存されます。
技術的実装
内部の基本メモリ:
- すべてをMarkdownファイルに保存する
- 検索とインデックス作成にSQLiteデータベースを使用する
- シンプルなマークダウンパターンから意味を抽出します
- ファイルは
Entity
オブジェクトになる - 各
Entity
、Observations
、つまりそれに関連付けられた事実を持つことができます。 Relations
エンティティを結び付けて知識グラフを形成する
- ファイルは
- ファイルから得られたローカル知識グラフを維持する
- ファイルとナレッジグラフ間の双方向同期を提供します
- AI統合のためのモデルコンテキストプロトコル(MCP)を実装
- AIアシスタントが知識グラフを横断して操作できるようにするツールを公開する
- ツールや会話全体でエンティティを参照するために、memory:// URL を使用します。
ファイル形式は、単純なマークアップがいくつか付いた Markdown です。
各 Markdown ファイルには次の内容が含まれます。
前書き
観察
観察とは、あるトピックに関する事実です。観察は、 category
、"#" 文字を使ったtags
、そしてオプションのcontext
を参照できる特別な形式の Markdown リストを作成することで追加できます。
観察マークダウン形式:
観察例:
関係
リレーションは他のトピックへのリンクです。ナレッジグラフ内でエンティティがどのように接続されるかを定義します。
マークダウン形式:
関係の例:
VS Codeでの使用
ワンクリックでインストールするには、以下のいずれかのインストールボタンをクリックしてください...
VS CodeでBasic Memoryを使用すると、コーディング中に情報を簡単に取得・保存できます。上記のインストールボタンをクリックしてワンクリックでセットアップするか、以下の手動インストール手順に従ってください。
手動インストール
VS Codeのユーザー設定(JSON)ファイルに、以下のJSONブロックを追加します。Ctrl Ctrl + Shift + P
を押してPreferences: Open User Settings (JSON)
と入力することで実行できます。
オプションとして、ワークスペース内の.vscode/mcp.json
というファイルに追加することもできます。これにより、他のユーザーと設定を共有できるようになります。
Claude Desktopでの使用
Basic Memory は MCP (Model Context Protocol) を使用して構築され、Claude デスクトップ アプリ ( https://claude.ai/ ) で動作します。
- 基本メモリを使用するようにClaude Desktopを構成します。
MCP 構成ファイルを編集します (通常、OS X の場合は~/Library/Application Support/Claude/claude_desktop_config.json
にあります)。
特定のプロジェクトを使用する場合は (複数のプロジェクトを参照)、Claude Desktop の設定を更新します。
- 知識を同期する:
手動で編集すると、Basic Memory はプロジェクト内のファイルをリアルタイムで同期します。
- Claude Desktop では、LLM は次のツールを使用できるようになりました。
- 試すプロンプトの例:
詳細情報
詳細については、以下のドキュメントを参照してください。
ライセンス
AGPL-3.0
貢献を歓迎します。ローカル環境でプロジェクトを立ち上げ、プルリクエストを送信する方法については、貢献ガイドをご覧ください。
スターの歴史
Basic Machines によって ♥️ で構築されました
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
Tools
Basic Memoryは、AIアシスタントとの会話から永続的なセマンティックグラフを構築できるナレッジマネジメントシステムです。すべてのナレッジは標準的なMarkdownファイル形式でコンピューターに保存されるため、データの完全な管理と所有権が得られます。Obsidan.mdと直接統合されています。
Related Resources
Related MCP Servers
- -securityAlicense-qualityThis project is based on the Knowledge Graph Memory Server from the MCP servers repository and retains its core functionality.Last updated -44107TypeScriptMIT License
- AsecurityAlicenseAqualityMemory manager for AI apps and Agents using various graph and vector stores and allowing ingestion from 30+ data sourcesLast updated -42,063Apache 2.0
- AsecurityAlicenseAqualityA customized MCP memory server that enables creation and management of a knowledge graph with features like custom memory paths and timestamping for capturing interactions via language models.Last updated -112JavaScriptMIT License
- AsecurityAlicenseAqualityA flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.Last updated -313136JavaScriptMIT License