basic-memory

Integrations

  • Uses Markdown as the primary file format for storing knowledge, with specific patterns for semantic structure.

  • Works seamlessly with Obsidian for knowledge management, visualization, and editing of the Basic Memory knowledge base files.

  • Provides import capability for ChatGPT conversation history into the Basic Memory knowledge base.

基本的なメモリ

Basic Memory を使用すると、Claude のような大規模言語モデル (LLM) との自然な会話を通じて永続的な知識を構築できます。その際、すべての情報はシンプルな Markdown ファイルとしてコンピュータ上に保存されます。Model Context Protocol (MCP) を使用することで、互換性のある LLM からローカル知識ベースの読み書きが可能になります。

中断したところから会話を再開しましょう

  • AIアシスタントは新しい会話でローカルファイルからコンテキストを読み込むことができる
  • メモはリアルタイムでMarkdownファイルとしてローカルに保存されます
  • プロジェクトの知識や特別な指示は必要ありません

https://github.com/user-attachments/assets/a55d8238-8dd0-454a-be4c-8860dbbd0ddc

クイックスタート

# Install with uv (recommended) uv tool install basic-memory # Configure Claude Desktop (edit ~/Library/Application Support/Claude/claude_desktop_config.json) # Add this to your config: { "mcpServers": { "basic-memory": { "command": "uvx", "args": [ "basic-memory", "mcp" ] } } } # Now in Claude Desktop, you can: # - Write notes with "Create a note about coffee brewing methods" # - Read notes with "What do I know about pour over coffee?" # - Search with "Find information about Ethiopian beans"

~/basic-memory (デフォルトのディレクトリの場所) 内のファイルを介して共有コンテキストを表示できます。

Smithery経由の代替インストール

Smitheryを使用すると、Claude Desktop の基本メモリを自動的に構成できます。

npx -y @smithery/cli install @basicmachines-co/basic-memory --client claude

これにより、Claude Desktop の設定ファイルを手動で編集することなく、Basic Memory をインストールおよび設定できます。Smithery サーバーは MCP サーバーコンポーネントをホストし、データは Markdown ファイルとしてローカルに保存されたままになります。

グラマ.ai

なぜ基本メモリなのか?

LLMでのやり取りのほとんどは一時的なものです。質問をして答えを得ると、すべて忘れ去られてしまいます。それぞれの会話は、以前の文脈や知識を持たずに、全く新しいものから始まります。現在の回避策には限界があります。

  • チャット履歴は会話を記録しますが、構造化された知識ではありません
  • RAGシステムはドキュメントを照会できるが、LLMに書き戻すことはできない。
  • ベクターデータベースは複雑な設定が必要で、クラウド上に保存されることが多い
  • ナレッジグラフを維持するには、通常、特別なツールが必要です。

Basic Memoryは、人間とLLMの両方が読み書きできる構造化されたMarkdownファイルというシンプルなアプローチでこれらの問題に対処します。主な利点は以下のとおりです。

  • **ローカルファースト:**すべての知識はあなたが管理するファイルに保存されます
  • **双方向:**ユーザーと LLM の両方が同じファイルを読み書きします
  • **構造化されながらもシンプル:**使い慣れたMarkdownとセマンティックパターンを使用
  • トラバース可能な知識グラフ: LLMはトピック間のリンクをたどることができる
  • 標準フォーマット: Obsidianなどの既存のエディタで動作します
  • **軽量インフラストラクチャ:**ローカル SQLite データベースにインデックスされたローカルファイルのみ

基本メモリを使用すると、次のことが可能になります。

  • 過去の知識に基づいた会話をする
  • 自然な会話の中で構造化されたメモを作成する
  • 以前話し合った内容を覚えている法学修士と会話をする
  • 知識グラフを意味的にナビゲートする
  • すべてをローカルで管理
  • Obsidianなどの使い慣れたツールを使用してメモを表示および編集します
  • 時間の経過とともに成長する個人の知識ベースを構築する

実際の仕組み

コーヒーの淹れ方を研究していて、その知識を記録したいとしましょう。その仕組みは以下のとおりです。

  1. 通常通りチャットを始めましょう:
I've been experimenting with different coffee brewing methods. Key things I've learned: - Pour over gives more clarity in flavor than French press - Water temperature is critical - around 205°F seems best - Freshly ground beans make a huge difference

...会話を続けます。

  1. この知識を体系化するために LLM に協力を求めてください。
"Let's write a note about coffee brewing methods."

LLM はシステム上に新しい Markdown ファイルを作成します (Obsidian またはエディターですぐに確認できます)。

--- title: Coffee Brewing Methods permalink: coffee-brewing-methods tags: - coffee - brewing --- # Coffee Brewing Methods ## Observations - [method] Pour over provides more clarity and highlights subtle flavors - [technique] Water temperature at 205°F (96°C) extracts optimal compounds - [principle] Freshly ground beans preserve aromatics and flavor ## Relations - relates_to [[Coffee Bean Origins]] - requires [[Proper Grinding Technique]] - affects [[Flavor Extraction]]

メモには、シンプルな Markdown 形式を使用して、セマンティック コンテンツと他のトピックへのリンクが埋め込まれます。

  1. このファイルは、コンピューターの現在のプロジェクト ディレクトリ (デフォルトでは~/$HOME/basic-memory ) にリアルタイムで表示されます。
  • リアルタイム同期はv0.12.0バージョンでデフォルトで有効になっています
  1. LLM とのチャットでは、次のトピックを参照できます。
Look at `coffee-brewing-methods` for context about pour over coffee

LLMはナレッジグラフから豊富なコンテキストを構築できるようになりました。例えば:

Following relation 'relates_to [[Coffee Bean Origins]]': - Found information about Ethiopian Yirgacheffe - Notes on Colombian beans' nutty profile - Altitude effects on bean characteristics Following relation 'requires [[Proper Grinding Technique]]': - Burr vs. blade grinder comparisons - Grind size recommendations for different methods - Impact of consistent particle size on extraction

関連する各ドキュメントにより、より多くのコンテキストが得られ、知識ベースの豊富な意味的理解が構築されます。

これにより、次の双方向フローが作成されます。

  • 人間がMarkdownファイルを作成し編集する
  • LLMはMCPプロトコルを介して読み書きします
  • 同期により一貫性が保たれます
  • すべての知識はローカル ファイルに保存されます。

技術的実装

内部の基本メモリ:

  1. すべてをMarkdownファイルに保存する
  2. 検索とインデックス作成にSQLiteデータベースを使用する
  3. シンプルなマークダウンパターンから意味を抽出します
    • ファイルはEntityオブジェクトになる
    • EntityObservations 、つまりそれに関連付けられた事実を持つことができます。
    • Relationsエンティティを結び付けて知識グラフを形成する
  4. ファイルから得られたローカル知識グラフを維持する
  5. ファイルとナレッジグラフ間の双方向同期を提供します
  6. AI統合のためのモデルコンテキストプロトコル(MCP)を実装
  7. AIアシスタントが知識グラフを横断して操作できるようにするツールを公開する
  8. ツールや会話全体でエンティティを参照するために、memory:// URL を使用します。

ファイル形式は、単純なマークアップがいくつか付いた Markdown です。

各 Markdown ファイルには次の内容が含まれます。

前書き

title: <Entity title> type: <The type of Entity> (e.g. note) permalink: <a uri slug> - <optional metadata> (such as tags)

観察

観察とは、あるトピックに関する事実です。観察は、 category 、"#" 文字を使ったtags 、そしてオプションのcontextを参照できる特別な形式の Markdown リストを作成することで追加できます。

観察マークダウン形式:

- [category] content #tag (optional context)

観察例:

- [method] Pour over extracts more floral notes than French press - [tip] Grind size should be medium-fine for pour over #brewing - [preference] Ethiopian beans have bright, fruity flavors (especially from Yirgacheffe) - [fact] Lighter roasts generally contain more caffeine than dark roasts - [experiment] Tried 1:15 coffee-to-water ratio with good results - [resource] James Hoffman's V60 technique on YouTube is excellent - [question] Does water temperature affect extraction of different compounds differently? - [note] My favorite local shop uses a 30-second bloom time

関係

リレーションは他のトピックへのリンクです。ナレッジグラフ内でエンティティがどのように接続されるかを定義します。

マークダウン形式:

- relation_type [[WikiLink]] (optional context)

関係の例:

- pairs_well_with [[Chocolate Desserts]] - grown_in [[Ethiopia]] - contrasts_with [[Tea Brewing Methods]] - requires [[Burr Grinder]] - improves_with [[Fresh Beans]] - relates_to [[Morning Routine]] - inspired_by [[Japanese Coffee Culture]] - documented_in [[Coffee Journal]]

VS Codeでの使用

ワンクリックでインストールするには、以下のいずれかのインストールボタンをクリックしてください...

VS CodeでBasic Memoryを使用すると、コーディング中に情報を簡単に取得・保存できます。上記のインストールボタンをクリックしてワンクリックでセットアップするか、以下の手動インストール手順に従ってください。

手動インストール

VS Codeのユーザー設定(JSON)ファイルに、以下のJSONブロックを追加します。Ctrl Ctrl + Shift + Pを押してPreferences: Open User Settings (JSON)と入力することで実行できます。

{ "mcp": { "servers": { "basic-memory": { "command": "uvx", "args": ["basic-memory", "mcp"] } } } }

オプションとして、ワークスペース内の.vscode/mcp.jsonというファイルに追加することもできます。これにより、他のユーザーと設定を共有できるようになります。

{ "servers": { "basic-memory": { "command": "uvx", "args": ["basic-memory", "mcp"] } } }

Claude Desktopでの使用

Basic Memory は MCP (Model Context Protocol) を使用して構築され、Claude デスクトップ アプリ ( https://claude.ai/ ) で動作します。

  1. 基本メモリを使用するようにClaude Desktopを構成します。

MCP 構成ファイルを編集します (通常、OS X の場合は~/Library/Application Support/Claude/claude_desktop_config.jsonにあります)。

{ "mcpServers": { "basic-memory": { "command": "uvx", "args": [ "basic-memory", "mcp" ] } } }

特定のプロジェクトを使用する場合は (複数のプロジェクトを参照)、Claude Desktop の設定を更新します。

{ "mcpServers": { "basic-memory": { "command": "uvx", "args": [ "basic-memory", "--project", "your-project-name", "mcp" ] } } }
  1. 知識を同期する:

手動で編集すると、Basic Memory はプロジェクト内のファイルをリアルタイムで同期します。

  1. Claude Desktop では、LLM は次のツールを使用できるようになりました。
write_note(title, content, folder, tags) - Create or update notes read_note(identifier, page, page_size) - Read notes by title or permalink build_context(url, depth, timeframe) - Navigate knowledge graph via memory:// URLs search_notes(query, page, page_size) - Search across your knowledge base recent_activity(type, depth, timeframe) - Find recently updated information canvas(nodes, edges, title, folder) - Generate knowledge visualizations
  1. 試すプロンプトの例:
"Create a note about our project architecture decisions" "Find information about JWT authentication in my notes" "Create a canvas visualization of my project components" "Read my notes on the authentication system" "What have I been working on in the past week?"

詳細情報

詳細については、以下のドキュメントを参照してください。

ライセンス

AGPL-3.0

貢献を歓迎します。ローカル環境でプロジェクトを立ち上げ、プルリクエストを送信する方法については、貢献ガイドをご覧ください。

スターの歴史

Basic Machines によって ♥️ で構築されました

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

Basic Memoryは、AIアシスタントとの会話から永続的なセマンティックグラフを構築できるナレッジマネジメントシステムです。すべてのナレッジは標準的なMarkdownファイル形式でコンピューターに保存されるため、データの完全な管理と所有権が得られます。Obsidan.mdと直接統合されています。

  1. 中断したところから会話を再開しましょう
    1. クイックスタート
      1. Smithery経由の代替インストール
      2. グラマ.ai
    2. なぜ基本メモリなのか?
      1. 実際の仕組み
        1. 技術的実装
          1. 前書き
          2. 観察
          3. 関係
        2. VS Codeでの使用
          1. 手動インストール
        3. Claude Desktopでの使用
          1. 詳細情報
            1. ライセンス
              1. スターの歴史

                Related MCP Servers

                • -
                  security
                  A
                  license
                  -
                  quality
                  This project is based on the Knowledge Graph Memory Server from the MCP servers repository and retains its core functionality.
                  Last updated -
                  44
                  107
                  TypeScript
                  MIT License
                  • Apple
                • A
                  security
                  A
                  license
                  A
                  quality
                  Memory manager for AI apps and Agents using various graph and vector stores and allowing ingestion from 30+ data sources
                  Last updated -
                  4
                  2,063
                  Apache 2.0
                  • Apple
                • A
                  security
                  A
                  license
                  A
                  quality
                  A customized MCP memory server that enables creation and management of a knowledge graph with features like custom memory paths and timestamping for capturing interactions via language models.
                  Last updated -
                  11
                  2
                  JavaScript
                  MIT License
                  • Apple
                • A
                  security
                  A
                  license
                  A
                  quality
                  A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
                  Last updated -
                  3
                  131
                  36
                  JavaScript
                  MIT License

                View all related MCP servers

                ID: o90kttu9ym