Skip to main content
Glama

ライセンス: AGPL v3PyPIバージョン Python 3.12以上 テスト ラフ 鍛冶屋のバッジ

基本的なメモリ

Basic Memory を使用すると、Claude のような大規模言語モデル (LLM) との自然な会話を通じて永続的な知識を構築できます。その際、すべての情報はシンプルな Markdown ファイルとしてコンピュータ上に保存されます。Model Context Protocol (MCP) を使用することで、互換性のある LLM からローカル知識ベースの読み書きが可能になります。

中断したところから会話を再開しましょう

  • AIアシスタントは新しい会話でローカルファイルからコンテキストを読み込むことができる

  • メモはリアルタイムでMarkdownファイルとしてローカルに保存されます

  • プロジェクトの知識や特別な指示は必要ありません

https://github.com/user-attachments/assets/a55d8238-8dd0-454a-be4c-8860dbbd0ddc

Related MCP server: memento-mcp

クイックスタート

# Install with uv (recommended) uv tool install basic-memory # Configure Claude Desktop (edit ~/Library/Application Support/Claude/claude_desktop_config.json) # Add this to your config: { "mcpServers": { "basic-memory": { "command": "uvx", "args": [ "basic-memory", "mcp" ] } } } # Now in Claude Desktop, you can: # - Write notes with "Create a note about coffee brewing methods" # - Read notes with "What do I know about pour over coffee?" # - Search with "Find information about Ethiopian beans"

~/basic-memory (デフォルトのディレクトリの場所) 内のファイルを介して共有コンテキストを表示できます。

Smithery経由の代替インストール

Smitheryを使用すると、Claude Desktop の基本メモリを自動的に構成できます。

npx -y @smithery/cli install @basicmachines-co/basic-memory --client claude

これにより、Claude Desktop の設定ファイルを手動で編集することなく、Basic Memory をインストールおよび設定できます。Smithery サーバーは MCP サーバーコンポーネントをホストし、データは Markdown ファイルとしてローカルに保存されたままになります。

グラマ.ai

なぜ基本メモリなのか?

LLMでのやり取りのほとんどは一時的なものです。質問をして答えを得ると、すべて忘れ去られてしまいます。それぞれの会話は、以前の文脈や知識を持たずに、全く新しいものから始まります。現在の回避策には限界があります。

  • チャット履歴は会話を記録しますが、構造化された知識ではありません

  • RAGシステムはドキュメントを照会できるが、LLMに書き戻すことはできない。

  • ベクターデータベースは複雑な設定が必要で、クラウド上に保存されることが多い

  • ナレッジグラフを維持するには、通常、特別なツールが必要です。

Basic Memoryは、人間とLLMの両方が読み書きできる構造化されたMarkdownファイルというシンプルなアプローチでこれらの問題に対処します。主な利点は以下のとおりです。

  • **ローカルファースト:**すべての知識はあなたが管理するファイルに保存されます

  • **双方向:**ユーザーと LLM の両方が同じファイルを読み書きします

  • **構造化されながらもシンプル:**使い慣れたMarkdownとセマンティックパターンを使用

  • トラバース可能な知識グラフ: LLMはトピック間のリンクをたどることができる

  • 標準フォーマット: Obsidianなどの既存のエディタで動作します

  • **軽量インフラストラクチャ:**ローカル SQLite データベースにインデックスされたローカルファイルのみ

基本メモリを使用すると、次のことが可能になります。

  • 過去の知識に基づいた会話をする

  • 自然な会話の中で構造化されたメモを作成する

  • 以前話し合った内容を覚えている法学修士と会話をする

  • 知識グラフを意味的にナビゲートする

  • すべてをローカルで管理

  • Obsidianなどの使い慣れたツールを使用してメモを表示および編集します

  • 時間の経過とともに成長する個人の知識ベースを構築する

実際の仕組み

コーヒーの淹れ方を研究していて、その知識を記録したいとしましょう。その仕組みは以下のとおりです。

  1. 通常通りチャットを始めましょう:

I've been experimenting with different coffee brewing methods. Key things I've learned: - Pour over gives more clarity in flavor than French press - Water temperature is critical - around 205°F seems best - Freshly ground beans make a huge difference

...会話を続けます。

  1. この知識を体系化するために LLM に協力を求めてください。

"Let's write a note about coffee brewing methods."

LLM はシステム上に新しい Markdown ファイルを作成します (Obsidian またはエディターですぐに確認できます)。

--- title: Coffee Brewing Methods permalink: coffee-brewing-methods tags: - coffee - brewing --- # Coffee Brewing Methods ## Observations - [method] Pour over provides more clarity and highlights subtle flavors - [technique] Water temperature at 205°F (96°C) extracts optimal compounds - [principle] Freshly ground beans preserve aromatics and flavor ## Relations - relates_to [[Coffee Bean Origins]] - requires [[Proper Grinding Technique]] - affects [[Flavor Extraction]]

メモには、シンプルな Markdown 形式を使用して、セマンティック コンテンツと他のトピックへのリンクが埋め込まれます。

  1. このファイルは、コンピューターの現在のプロジェクト ディレクトリ (デフォルトでは~/$HOME/basic-memory ) にリアルタイムで表示されます。

  • リアルタイム同期はv0.12.0バージョンでデフォルトで有効になっています

  1. LLM とのチャットでは、次のトピックを参照できます。

Look at `coffee-brewing-methods` for context about pour over coffee

LLMはナレッジグラフから豊富なコンテキストを構築できるようになりました。例えば:

Following relation 'relates_to [[Coffee Bean Origins]]': - Found information about Ethiopian Yirgacheffe - Notes on Colombian beans' nutty profile - Altitude effects on bean characteristics Following relation 'requires [[Proper Grinding Technique]]': - Burr vs. blade grinder comparisons - Grind size recommendations for different methods - Impact of consistent particle size on extraction

関連する各ドキュメントにより、より多くのコンテキストが得られ、知識ベースの豊富な意味的理解が構築されます。

これにより、次の双方向フローが作成されます。

  • 人間がMarkdownファイルを作成し編集する

  • LLMはMCPプロトコルを介して読み書きします

  • 同期により一貫性が保たれます

  • すべての知識はローカル ファイルに保存されます。

技術的実装

内部の基本メモリ:

  1. すべてをMarkdownファイルに保存する

  2. 検索とインデックス作成にSQLiteデータベースを使用する

  3. シンプルなマークダウンパターンから意味を抽出します

    • ファイルはEntityオブジェクトになる

    • EntityObservations 、つまりそれに関連付けられた事実を持つことができます。

    • Relationsエンティティを結び付けて知識グラフを形成する

  4. ファイルから得られたローカル知識グラフを維持する

  5. ファイルとナレッジグラフ間の双方向同期を提供します

  6. AI統合のためのモデルコンテキストプロトコル(MCP)を実装

  7. AIアシスタントが知識グラフを横断して操作できるようにするツールを公開する

  8. ツールや会話全体でエンティティを参照するために、memory:// URL を使用します。

ファイル形式は、単純なマークアップがいくつか付いた Markdown です。

各 Markdown ファイルには次の内容が含まれます。

前書き

title: <Entity title> type: <The type of Entity> (e.g. note) permalink: <a uri slug> - <optional metadata> (such as tags)

観察

観察とは、あるトピックに関する事実です。観察は、 category 、"#" 文字を使ったtags 、そしてオプションのcontextを参照できる特別な形式の Markdown リストを作成することで追加できます。

観察マークダウン形式:

- [category] content #tag (optional context)

観察例:

- [method] Pour over extracts more floral notes than French press - [tip] Grind size should be medium-fine for pour over #brewing - [preference] Ethiopian beans have bright, fruity flavors (especially from Yirgacheffe) - [fact] Lighter roasts generally contain more caffeine than dark roasts - [experiment] Tried 1:15 coffee-to-water ratio with good results - [resource] James Hoffman's V60 technique on YouTube is excellent - [question] Does water temperature affect extraction of different compounds differently? - [note] My favorite local shop uses a 30-second bloom time

関係

リレーションは他のトピックへのリンクです。ナレッジグラフ内でエンティティがどのように接続されるかを定義します。

マークダウン形式:

- relation_type [[WikiLink]] (optional context)

関係の例:

- pairs_well_with [[Chocolate Desserts]] - grown_in [[Ethiopia]] - contrasts_with [[Tea Brewing Methods]] - requires [[Burr Grinder]] - improves_with [[Fresh Beans]] - relates_to [[Morning Routine]] - inspired_by [[Japanese Coffee Culture]] - documented_in [[Coffee Journal]]

VS Codeでの使用

ワンクリックでインストールするには、以下のいずれかのインストールボタンをクリックしてください...

VS CodeでUVを使ってインストールする VS Code Insiders で UV を使用してインストールする

VS CodeでBasic Memoryを使用すると、コーディング中に情報を簡単に取得・保存できます。上記のインストールボタンをクリックしてワンクリックでセットアップするか、以下の手動インストール手順に従ってください。

手動インストール

VS Codeのユーザー設定(JSON)ファイルに、以下のJSONブロックを追加します。Ctrl Ctrl + Shift + Pを押してPreferences: Open User Settings (JSON)と入力することで実行できます。

{ "mcp": { "servers": { "basic-memory": { "command": "uvx", "args": ["basic-memory", "mcp"] } } } }

オプションとして、ワークスペース内の.vscode/mcp.jsonというファイルに追加することもできます。これにより、他のユーザーと設定を共有できるようになります。

{ "servers": { "basic-memory": { "command": "uvx", "args": ["basic-memory", "mcp"] } } }

Claude Desktopでの使用

Basic Memory は MCP (Model Context Protocol) を使用して構築され、Claude デスクトップ アプリ ( https://claude.ai/ ) で動作します。

  1. 基本メモリを使用するようにClaude Desktopを構成します。

MCP 構成ファイルを編集します (通常、OS X の場合は~/Library/Application Support/Claude/claude_desktop_config.jsonにあります)。

{ "mcpServers": { "basic-memory": { "command": "uvx", "args": [ "basic-memory", "mcp" ] } } }

特定のプロジェクトを使用する場合は (複数のプロジェクトを参照)、Claude Desktop の設定を更新します。

{ "mcpServers": { "basic-memory": { "command": "uvx", "args": [ "basic-memory", "--project", "your-project-name", "mcp" ] } } }
  1. 知識を同期する:

手動で編集すると、Basic Memory はプロジェクト内のファイルをリアルタイムで同期します。

  1. Claude Desktop では、LLM は次のツールを使用できるようになりました。

write_note(title, content, folder, tags) - Create or update notes read_note(identifier, page, page_size) - Read notes by title or permalink build_context(url, depth, timeframe) - Navigate knowledge graph via memory:// URLs search_notes(query, page, page_size) - Search across your knowledge base recent_activity(type, depth, timeframe) - Find recently updated information canvas(nodes, edges, title, folder) - Generate knowledge visualizations
  1. 試すプロンプトの例:

"Create a note about our project architecture decisions" "Find information about JWT authentication in my notes" "Create a canvas visualization of my project components" "Read my notes on the authentication system" "What have I been working on in the past week?"

詳細情報

詳細については、以下のドキュメントを参照してください。

ライセンス

AGPL-3.0

貢献を歓迎します。ローカル環境でプロジェクトを立ち上げ、プルリクエストを送信する方法については、貢献ガイドをご覧ください。

スターの歴史

Basic Machines によって ♥️ で構築されました

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/basicmachines-co/basic-memory'

If you have feedback or need assistance with the MCP directory API, please join our Discord server