LLMコンテキスト
LLM Context は、開発者がコード/テキストプロジェクトから関連コンテンツを大規模言語モデルのチャットインターフェースに迅速に挿入するのに役立つツールです.gitignore
パターンを活用してスマートなファイル選択を実現し、コマンドラインを使用した効率的なクリップボードワークフローと、モデルコンテキストプロトコル (MCP) を介した LLM への直接的な統合の両方を提供します。
注:このプロジェクトは、Claude Sonnets(3.5、3.6、3.7、そして最近ではGrok-3も)の複数の開発者と共同で開発されました。開発中のコード共有にはLLM Context自体が使用されていました。リポジトリ内のすべてのコードは、人間によってキュレーションされています(私😇、@restlessroninによるものです)。
v0.3.0 における重大な変更点
従来のTOML/YAMLベースのプロファイルに代わり、Markdown(+YAMLフロントマター)ベースのルールシステムに移行しました。これは設定に影響する重大な変更です。新しいルール形式とその使い方の詳細については、ユーザーガイドをご覧ください。
LLM コンテキストを選ぶ理由
LLM Contextの背後にある理由とAI支援開発へのアプローチについて詳しくは、次の記事をご覧ください。LLM Context: 開発のためのバニラAIチャットの活用
LLM Context の実際の例とワークフローを確認するには、 「Full Context Magic - AI がプロジェクト全体を理解できるようになるとき」をお読みください。
現在の使用パターン
- 直接的なLLM統合:MCPプロトコルを介したClaude Desktopとのネイティブ統合
- チャットインターフェースのサポート: CLI/クリップボード経由で任意の LLM チャットインターフェースで動作します
- Claude プロジェクトやカスタム GPT などの永続的なコンテキストを持つインターフェースに最適化されています
- 標準的なチャットインターフェースでも同様に動作します
- プロジェクトタイプ: コードリポジトリやテキスト/マークダウン/HTMLドキュメントのコレクションに適しています
- プロジェクトサイズ: LLMのコンテキストウィンドウに収まるプロジェクトに最適化されています。大規模プロジェクトのサポートは現在開発中です。
インストール
uvを使用して LLM コンテキストをインストールします。
最新バージョンにアップグレードするには:
警告:LLMコンテキストは現在開発中です。アップデートにより、
lc-
で始まる設定ファイルが上書きされる可能性があります。そのため、すべての設定ファイルをバージョン管理することをお勧めします。
クイックスタート
クロードデスクトップを使用したMCP
'claude_desktop_config.json' に追加:
設定が完了したら、次の 2 つの簡単な方法でプロジェクトの作業を開始できます。
- 「自分のプロジェクトで作業したい」と言うと、Claude がプロジェクトのルート パスを尋ねます。
- または、「自分のプロジェクト /path/to/your/project で作業したい」と直接指定すると、Claude はプロジェクト コンテキストを自動的に読み込みます。
推奨ワークフロー: プロジェクト UI と MCP を組み合わせる
最適な結果を得るには、ClaudeのプロジェクトナレッジUIを介した初期コンテキストと、MCPを介した動的なコードアクセスを組み合わせてください。これにより、包括的な理解と最新の変更へのアクセスの両方が可能になります。詳細と例については、 Full Context Magicをご覧ください。
CLI クイックスタートと一般的なワークフロー
- プロジェクトのルートディレクトリに移動します
- リポジトリを初期化する:
lc-init
(一度だけ必要) - ファイルを選択:
lc-sel-files
- (オプション)
.llm-context/curr_ctx.yaml
内の選択したファイルを確認します。 - コンテキストを生成:
lc-context
(オプションのフラグ: プロンプトの場合は-p
、ユーザーメモの場合は-u
) - お好みのインターフェースで使用してください:
- プロジェクトナレッジ(Claude Pro):ナレッジセクションに貼り付け
- GPTナレッジ(カスタムGPT): ナレッジセクションに貼り付けます
- 通常のチャット:
lc-context -p
を使用して指示を追加します
- LLM が追加ファイルを要求する場合:
- LLMからファイルリストをコピーする
lc-clip-files
を実行する- 内容をLLMに貼り付けます
コアコマンド
lc-init
: プロジェクト設定を初期化するlc-set-rule <n>
: スイッチルール(システムルールには「lc-」という接頭辞が付きます)lc-sel-files
: 含めるファイルを選択lc-sel-outlines
: アウトライン生成用のファイルを選択lc-context [-p] [-u] [-f FILE]
: コンテキストを生成してコピーする-p
: プロンプト指示を含める-u
: ユーザーメモを含める-f FILE
: 出力ファイルに書き込む
lc-prompt
: LLMのプロジェクト指示を生成するlc-clip-files
: LLM ファイル要求を処理するlc-changed
: 前回のコンテキスト生成以降に変更されたファイルを一覧表示するlc-outlines
: コードファイルのアウトラインを生成するlc-clip-implementations
: LLM によって要求されたコード実装を抽出します (C/C++ はサポートされていません)
機能と高度な使用方法
LLM Context は、プロジェクト コンテンツのキャプチャおよび表示方法をカスタマイズするための高度な機能を提供します。
.gitignore
パターンを使用したスマートなファイル選択- さまざまなユースケースに対応する複数のルールベースのプロファイル
- システムルール(接頭辞「lc-」)はデフォルトの機能を提供します
- ユーザー定義のルールは独立して作成することも、既存のルールを拡張することもできます。
- コードナビゲーション機能:
- スマートコードアウトライン: LLM がコードベースの高レベル構造を表示できるようにし、重要な定義を強調表示するアウトラインを自動的に生成します。
- 定義実装の抽出: LLMがコードアウトラインを確認した後、
lc-clip-implementations
コマンドを使用して、LLMが要求する特定の定義の完全な実装を貼り付けます。
- カスタマイズ可能なテンプレートとプロンプト
これらの機能の詳細なドキュメントについては、ユーザー ガイドを参照してください。
類似ツール
包括的な代替手段のリストを確認してください。この問題に取り組むツールの数が、開発者コミュニティにとっての重要性を証明しています。
謝辞
LLM Context は、AI 支援開発ツールの系譜から進化しました。
- このプロジェクトは、IDE 統合用に私が開発した TypeScript ライブラリであるLLM Code Highlighter の後継です。
- このコンセプトは、 RubberDuckでの私の仕事から生まれ、その後Continueへの貢献に引き継がれました。
- LLM Code HighlighterはAider Chatに大きく影響を受けています。私はGPT-4を使って、いくつかのAider Chat PythonモジュールをTypeScriptに変換し、機能性を維持しながらコードを再構築しました。
- このプロジェクトでは、Aider Chat の tree-sitterタグ クエリ ファイルを使用します。
- LLM Context は、GPT-4 と Claude-3.5-Sonnet の助けを借りて Python から TypeScript に移行し、再び Python に戻るという、AI 支援開発の威力を実証しています。
このプロジェクトの進化を形作ったオープンソース コミュニティの革新と AI の支援に感謝します。
このプロジェクトの開発において、Claude-3.5-Sonnet の協力に感謝いたします。
ライセンス
このプロジェクトはApacheライセンスバージョン2.0に基づいてライセンスされています。詳細はLICENSEファイルをご覧ください。
You must be authenticated.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
MCP またはクリップボード経由で LLM とコードコンテキストを共有する
Related MCP Servers
- AsecurityAlicenseAqualityChat with your codebase through intelligent code searching without embeddings by breaking files into logical chunks, giving the LLM tools to search these chunks, and letting it find specific code needed to answer your questions.Last updated -822PythonMIT License
- -securityAlicense-qualityA comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.Last updated -14PythonApache 2.0
- -securityAlicense-qualityAn MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.Last updated -177PythonMIT License
- -securityFlicense-qualityAllows LLM tools like Claude Desktop and Cursor AI to access and summarize code files through a Model Context Protocol server, providing structured access to codebase content without manual copying.Last updated -TypeScript