Skip to main content
Glama

LLMコンテキスト

ライセンス PyPIバージョン ダウンロード

LLM Context は、開発者がコード/テキストプロジェクトから関連コンテンツを大規模言語モデルのチャットインターフェースに迅速に挿入するのに役立つツールです.gitignoreパターンを活用してスマートなファイル選択を実現し、コマンドラインを使用した効率的なクリップボードワークフローと、モデルコンテキストプロトコル (MCP) を介した LLM への直接的な統合の両方を提供します。

:このプロジェクトは、Claude Sonnets(3.5、3.6、3.7、そして最近ではGrok-3も)の複数の開発者と共同で開発されました。開発中のコード共有にはLLM Context自体が使用されていました。リポジトリ内のすべてのコードは、人間によってキュレーションされています(私😇、@restlessroninによるものです)。

v0.3.0 における重大な変更点

従来のTOML/YAMLベースのプロファイルに代わり、Markdown(+YAMLフロントマター)ベースのルールシステムに移行しました。これは設定に影響する重大な変更です。新しいルール形式とその使い方の詳細については、ユーザーガイドをご覧ください。

Related MCP server: Bifrost VSCode Devtools

LLM コンテキストを選ぶ理由

LLM Contextの背後にある理由とAI支援開発へのアプローチについて詳しくは、次の記事をご覧ください。LLM Context: 開発のためのバニラAIチャットの活用

LLM Context の実際の例とワークフローを確認するには、 「Full Context Magic - AI がプロジェクト全体を理解できるようになるとき」をお読みください。

現在の使用パターン

  • 直接的なLLM統合:MCPプロトコルを介したClaude Desktopとのネイティブ統合

  • チャットインターフェースのサポート: CLI/クリップボード経由で任意の LLM チャットインターフェースで動作します

    • Claude プロジェクトやカスタム GPT などの永続的なコンテキストを持つインターフェースに最適化されています

    • 標準的なチャットインターフェースでも同様に動作します

  • プロジェクトタイプ: コードリポジトリやテキスト/マークダウン/HTMLドキュメントのコレクションに適しています

  • プロジェクトサイズ: LLMのコンテキストウィンドウに収まるプロジェクトに最適化されています。大規模プロジェクトのサポートは現在開発中です。

インストール

uvを使用して LLM コンテキストをインストールします。

uv tool install "llm-context>=0.3.0"

最新バージョンにアップグレードするには:

uv tool upgrade llm-context

警告:LLMコンテキストは現在開発中です。アップデートにより、 lc-で始まる設定ファイルが上書きされる可能性があります。そのため、すべての設定ファイルをバージョン管理することをお勧めします。

クイックスタート

クロードデスクトップを使用したMCP

'claude_desktop_config.json' に追加:

{ "mcpServers": { "CyberChitta": { "command": "uvx", "args": ["--from", "llm-context", "lc-mcp"] } } }

設定が完了したら、次の 2 つの簡単な方法でプロジェクトの作業を開始できます。

  1. 「自分のプロジェクトで作業したい」と言うと、Claude がプロジェクトのルート パスを尋ねます。

  2. または、「自分のプロジェクト /path/to/your/project で作業したい」と直接指定すると、Claude はプロジェクト コンテキストを自動的に読み込みます。

推奨ワークフロー: プロジェクト UI と MCP を組み合わせる

最適な結果を得るには、ClaudeのプロジェクトナレッジUIを介した初期コンテキストと、MCPを介した動的なコードアクセスを組み合わせてください。これにより、包括的な理解と最新の変更へのアクセスの両方が可能になります。詳細と例については、 Full Context Magicをご覧ください。

CLI クイックスタートと一般的なワークフロー

  1. プロジェクトのルートディレクトリに移動します

  2. リポジトリを初期化する: lc-init (一度だけ必要)

  3. ファイルを選択: lc-sel-files

  4. (オプション) .llm-context/curr_ctx.yaml内の選択したファイルを確認します。

  5. コンテキストを生成: lc-context (オプションのフラグ: プロンプトの場合は-p 、ユーザーメモの場合は-u )

  6. お好みのインターフェースで使用してください:

  • プロジェクトナレッジ(Claude Pro):ナレッジセクションに貼り付け

  • GPTナレッジ(カスタムGPT): ナレッジセクションに貼り付けます

  • 通常のチャット: lc-context -pを使用して指示を追加します

  1. LLM が追加ファイルを要求する場合:

    • LLMからファイルリストをコピーする

    • lc-clip-filesを実行する

    • 内容をLLMに貼り付けます

コアコマンド

  • lc-init : プロジェクト設定を初期化する

  • lc-set-rule <n> : スイッチルール(システムルールには「lc-」という接頭辞が付きます)

  • lc-sel-files : 含めるファイルを選択

  • lc-sel-outlines : アウトライン生成用のファイルを選択

  • lc-context [-p] [-u] [-f FILE] : コンテキストを生成してコピーする

    • -p : プロンプト指示を含める

    • -u : ユーザーメモを含める

    • -f FILE : 出力ファイルに書き込む

  • lc-prompt : LLMのプロジェクト指示を生成する

  • lc-clip-files : LLM ファイル要求を処理する

  • lc-changed : 前回のコンテキスト生成以降に変更されたファイルを一覧表示する

  • lc-outlines : コードファイルのアウトラインを生成する

  • lc-clip-implementations : LLM によって要求されたコード実装を抽出します (C/C++ はサポートされていません)

機能と高度な使用方法

LLM Context は、プロジェクト コンテンツのキャプチャおよび表示方法をカスタマイズするための高度な機能を提供します。

  • .gitignoreパターンを使用したスマートなファイル選択

  • さまざまなユースケースに対応する複数のルールベースのプロファイル

    • システムルール(接頭辞「lc-」)はデフォルトの機能を提供します

    • ユーザー定義のルールは独立して作成することも、既存のルールを拡張することもできます。

  • コードナビゲーション機能:

    1. スマートコードアウトライン: LLM がコードベースの高レベル構造を表示できるようにし、重要な定義を強調表示するアウトラインを自動的に生成します。

    2. 定義実装の抽出: LLMがコードアウトラインを確認した後、 lc-clip-implementationsコマンドを使用して、LLMが要求する特定の定義の完全な実装を貼り付けます。

  • カスタマイズ可能なテンプレートとプロンプト

これらの機能の詳細なドキュメントについては、ユーザー ガイドを参照してください。

類似ツール

包括的な代替手段のリストを確認してください。この問題に取り組むツールの数が、開発者コミュニティにとっての重要性を証明しています。

謝辞

LLM Context は、AI 支援開発ツールの系譜から進化しました。

  • このプロジェクトは、IDE 統合用に私が開発した TypeScript ライブラリであるLLM Code Highlighter の後継です。

  • このコンセプトは、 RubberDuckでの私の仕事から生まれ、その後Continueへの貢献に引き継がれました。

  • LLM Code HighlighterはAider Chatに大きく影響を受けています。私はGPT-4を使って、いくつかのAider Chat PythonモジュールをTypeScriptに変換し、機能性を維持しながらコードを再構築しました。

  • このプロジェクトでは、Aider Chat の tree-sitterタグ クエリ ファイルを使用します。

  • LLM Context は、GPT-4 と Claude-3.5-Sonnet の助けを借りて Python から TypeScript に移行し、再び Python に戻るという、AI 支援開発の威力を実証しています。

このプロジェクトの進化を形作ったオープンソース コミュニティの革新と AI の支援に感謝します。

このプロジェクトの開発において、Claude-3.5-Sonnet の協力に感謝いたします。

ライセンス

このプロジェクトはApacheライセンスバージョン2.0に基づいてライセンスされています。詳細はLICENSEファイルをご覧ください。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/cyberchitta/llm-context.py'

If you have feedback or need assistance with the MCP directory API, please join our Discord server