Jinni: プロジェクトを文脈に沿って考える
Jinniは、大規模言語モデルにプロジェクトのコンテキストを効率的に提供するためのツールです。関連するプロジェクトファイルを統合的に表示することで、ファイルを個別に読み込む際の制限や非効率性を解消します。各ファイルの内容の前には、パスを示すシンプルなヘッダーが付きます。
このツールの背景にある考え方は、LLM コンテキスト ウィンドウは大きく、モデルはスマートであり、プロジェクトを直接確認することで、モデルがあらゆる課題に対応できるようにするというものです。
AI ツールとの統合用の MCP (モデル コンテキスト プロトコル) サーバーと、プロジェクトのコンテキストをクリップボードにコピーして必要な場所に貼り付けることができる、手動で使用するためのコマンド ライン ユーティリティ (CLI) があります。
これらのツールは、ほとんどのユースケースですぐに使用できる最適なプロジェクト コンテキストとして何が考慮されるかについて独自の見解を持っており、次のものを自動的に除外します。
必要に応じて、 .contextfiles
を使用して、包含/除外を完全な粒度でカスタマイズできます。これは、包含を定義する点を除いて.gitignore
同様に機能します。.gitignore ファイル自体.gitignore
自動的に尊重されますが、 .contextfiles
内のルールが優先されます。
MCPサーバーは、必要に応じてプロジェクト全体または一部の情報を提供できます。デフォルトではプロジェクト全体が対象となりますが、モデルは特定のモジュールやマッチングパターンなどを要求することもできます。
MCP クイックスタート
Cursor / Roo / Claude Desktop / 選択したクライアント用の MCP サーバー構成ファイル:
LLM が不正になった場合に備えて、セキュリティのためにサーバーがツリー内のみを読み取るようにオプションで制限することもできます。 args
リストに"--root", "/absolute/path/"
を追加します。
システムに uv がインストールされていない場合はインストールしてください: https://docs.astral.sh/uv/getting-started/installation/
IDE をリロードすると、エージェントにコンテキスト内での読み取りを要求できるようになります。
これを特定のモジュール/パスに制限したい場合は、「テストのコンテキストを読み取る」などと尋ねてください。
カーソルを使用した動作:
カーソルユーザーへの注意
カーソルは、許可された最大値よりも大きいコンテキストを黙ってドロップする可能性があるため、大規模なプロジェクトがあり、エージェントがツール呼び出しが発生しなかったかのように動作する場合は、取り込むものを減らしてみてください(「xyz のコンテキストを読み取ります」)。
コンポーネント
jinni
MCP サーバー:- Cursor、Cline、Roo、Claude Desktop などの MCP クライアントと統合します。
- 指定されたプロジェクト ディレクトリから関連するファイル コンテンツの連結文字列を返す
read_context
ツールを公開します。
jinni
CLI:- プロジェクト コンテキスト ダンプを手動で生成するためのコマンド ライン ツール。
- コピー&ペーストやファイル入力でLLMにコンテキストを供給するのに便利です。また、出力を必要な場所にパイプすることもできます。
特徴
- **効率的なコンテキスト収集:**関連するプロジェクト ファイルを 1 回の操作で読み取り、連結しま���。
- インテリジェント フィルタリング (Gitignore スタイルのインクルード):
.gitignore
構文 (pathspec
ライブラリのgitwildmatch
) に基づくシステムを使用します。- プロジェクトルートから下位の
.gitignore
ファイルを自動的に読み込みます。これらの除外は.contextfiles
内のルールで上書きできます。 - プロジェクトディレクトリ内に配置した
.contextfiles
を使用した階層的な構成をサポートします。ルールは処理対象のファイル/ディレクトリに基づいて動的に適用されます。 - マッチング動作:パターンは、処理対象のディレクトリ(または特定のターゲットが指定されていない場合はプロジェクトルート)からの相対パスに対してマッチングされます。例えば、
src/
をターゲットとしている場合、src/.contextfiles
内の!app.py
はapp.py
にマッチします。出力パスは元のプロジェクトルートからの相対パスのままです。 - **オーバーライド:**特定のルールセットを排他的に使用する
--overrides
(CLI) またはrules
(MCP) をサポートします。オーバーライドが有効な場合、組み込みのデフォルトルールと.contextfiles
は無視されます。オーバーライドのパスマッチングは、ターゲットディレクトリからの相対パスのままです。 - **明示的なターゲットの包含:**ターゲットとして明示的に指定されたファイルは常に包含されます(ルールチェックはバイパスされますが、バイナリ/サイズチェックはバイパスされません)。ターゲットとして明示的に指定されたディレクトリは常に含まれ、ルールの検出/マッチングは、そのターゲットディレクトリを基準として実行されます。
- カスタマイズ可能な構成 (
.contextfiles
/ Overrides):- 相対パスに適用される
.gitignore
スタイルのパターンを使用して、含めるまたは除外するファイル/ディレクトリを正確に定義します。 !
で始まるパターンは一致を否定します (除外パターン)。 (以下の設定セクションを参照してください)。
- 相対パスに適用される
- **大きなコンテキストの処理:**含まれるファイルの合計サイズが設定可能な制限(デフォルト:100MB)を超えると、
DetailedContextSizeError
で処理を中止します。エラーメッセージには、サイズに寄与する上位10個のファイルのリストが含まれるため、除外する候補を特定するのに役立ちます。コンテキストサイズの管理に関するガイダンスについては、トラブルシューティングのセクションをご覧ください。 - **メタデータヘッダー:**出力には、インクルードされた各ファイルのパスヘッダーが含まれます(例: ````path=src/app.py
). This can be disabled with
。 - **エンコーディング処理:**複数の一般的なテキスト エンコーディング (UTF-8、Latin-1 など) を試みます。
- **リストのみモード:**含まれるファイルの相対パスのみを、そのコンテンツなしでリストするオプション。
使用法
MCP サーバー ( read_context
ツール)
- セットアップ:
uvx
経由でjinni
サーバーを実行するように MCP クライアント (例: Claude Desktop のclaude_desktop_config.json
) を構成します。 - 呼び出し: MCP クライアントを介して LLM と対話する場合、モデルは
read_context
ツールを呼び出すことができます。- **
project_root
(文字列、必須):**プロジェクトのルートディレクトリへの絶対パス。ルールの検出と出力のパスはこのルートからの相対パスとなります。 targets
(文字列のJSON配列、必須):処理対象となるproject_root
内のファイル/ディレクトリの必須リストを指定します。文字列パスのJSON配列である必要があります(例:["path/to/file1", "path/to/dir2"]
)。パスは絶対パスまたはCWDからの相対パスで指定できます。すべてのターゲットパスはproject_root
内の場所に解決される必要があります。空のリスト[]
が指定された場合は、project_root
全体が処理されます。rules
(文字列のJSON配列、必須):インラインフィルタリングルールの必須リスト(.gitignore
スタイルの構文を使用、例:["src/**/*.py", "!*.tmp"]
)。特定のルールが必要ない場合は空のリスト[]
を指定してください(組み込みのデフォルトが使用されます)。空でない場合は、これらのルールのみが使用され、組み込みのデフォルトと.contextfiles
無視されます。list_only
(ブール値、オプション): true の場合、コンテンツではなく相対ファイル パスのリストのみを返します。- **
size_limit_mb
(整数、オプション):**コンテキスト サイズの制限を MB 単位で上書きします。 - **
debug_explain
(ブール値、オプション):**サーバーのデバッグ ログを有効にします。
- **出力:**ツールは、連結されたコンテンツ(ヘッダー付き)またはファイルリストを含む単一の文字列を返します。ヘッダー/リスト内のパスは、指定された
project_root
からの相対パスです。コンテキストサイズエラーが発生した場合は、最大のファイルの詳細を含むDetailedContextSizeError
が返されます。
- **
MCPサーバー( usage
ツール)
- **呼び出し:**モデルは
usage
ツールを呼び出すことができます (引数は不要)。 - 出力:
README.md
ファイルの内容を文字列として返します。
(詳細なサーバー設定手順は、MCP クライアントによって異なります。通常は、Jinni サーバーを実行するようにクライアントを構成する必要があります。)
サーバーの実行:
- 推奨される方法:
uvx
を使用してサーバーのエントリ ポイントを直接実行します (jinni
パッケージが PyPI で公開されているか、uvx
で検索可能である必要があります)。MCP クライアント構成の例 (例:claude_desktop_config.json
):
LLM が不正になった場合に備えて、セキュリティのためにサーバーがツリー内のみを読み取るようにオプションで制限することもできます。 args
リストに"--root", "/absolute/path/"
を追加します。
正確な設定手順についてはuv
各MCPクライアントのドキュメントを参照してください。UVがインストールされていることを確認してください。
コマンドラインユーティリティ ( jinni
CLI)
- **
<PATH...>
(オプション):**分析対象となるプロジェクトディレクトリまたはファイルへの1つ以上のパス。指定されていない場合は、現在のディレクトリ (.
) がデフォルトになります。 - **
-r <DIR>
/--root <DIR>
(オプション):**プロジェクトのルートディレクトリを指定します。指定すると、ルールの検出はここから開始され、出力���スはこのディレクトリを基準とします。省略された場合は、ルートは<PATH...>
引数の共通の祖先から推測されます('.'のみを処理する場合はCWD)。 - **
--output <FILE>
/-o <FILE>
(オプション):**出力を標準出力に印刷する代わりに、<FILE>
に書き込みます。 - **
--list-only
/-l
(オプション):**含めるファイルの相対パスのみをリストします。 --overrides <FILE>
(オプション):.contextfiles
を検出する代わりに、<FILE>
からのルールを使用します。- **
--size-limit-mb <MB>
/-s <MB>
(オプション):**コンテキストの最大サイズを MB 単位で上書きします。 - **
--debug-explain
(オプション):**詳細な包含/除外理由を stderr とjinni_debug.log
に出力します。 - **
--root <DIR>
/-r <DIR>
(オプション):**上記を参照してください。 - **
--no-copy
(オプション):**標準出力に印刷するときに、出力コンテンツがシステム クリップボードに自動的にコピーされるのを防ぎます (デフォルトではコピーされます)。
インストール
pip
またはuv
を使用して Jinni をインストールできます。
pip の使用:
uvの使用:
これにより、お使いの環境でjinni
CLIコマンドが使用できるようになります。インストール方法に応じたMCPサーバーの起動方法については、上記の「サーバーの実行」セクションを参照してください。
プラットフォーム固有の注意事項
ウィンドウズ + WSL
Jinni v0.1.7+ は WSL パスを自動変換します。
次のいずれかをproject_root
(CLI --root
または MCP 引数) として指定します。
ラッパー、マウント、または追加のフラグは必要ありません。Jinni は Windows 上の UNC パス ( \\wsl$\...
) を自動的に解決します。
UNCパス形式: Jinniは、WSLをサポートするすべてのWindowsバージョンとの互換性を最大限に高めるために、常に\\wsl$\<distro>\...
を使用します。**ディストリビューション名の扱い:**ディストリビューション名には、スペースとほとんどの特殊文字を使用できます。完全に不正なUNC文字のみが_
に置き換えられます。キャッシュ: WSLパスの参照と変換は、パフォーマンス向上のためにキャッシュされます。Jinniの実行中にWSLをインストールする場合は、新しいwslpath
を取得するためにJinniを再起動してください。**オプトアウト:**環境変数JINNI_NO_WSL_TRANSLATE=1
を設定すると、すべてのWSLパス変換ロジックが無効になります。
wsl+<distro>
URI と絶対 POSIX パス ( /
で始まる) のみが変換されます。SSH またはコンテナー リモートの場合は、その環境内で Jinni を実行します。
ランタイムOS | 渡すもの | _translate_wsl_path() が返す値 |
---|---|---|
ウィンドウズ | vscode-remote://wsl+Ubuntu/home/a/b | \\wsl$\\Ubuntu\home\a\b |
ウィンドウズ | /home/a/b | \\wsl$\\Ubuntu\home\a\b (wslpath 経由) |
Linux/WSL | vscode-remote://wsl+Ubuntu/home/a/b | /home/a/b |
Linux/WSL | /home/a/b | /home/a/b (変更なし) |
例
my_project/
のコンテキストをコンソールにダンプします。- コンテンツなしで
my_project/
に含まれるファイルを一覧表示します。 my_project/
のコンテキストをcontext_dump.txt
という名前のファイルにダンプします。.contextfiles
の代わりにcustom.rules
からのオーバーライド ルールを使用します。- デバッグ情報を表示します:
- ダンプコンテキスト (出力はデフォルトで自動的にクリップボードにコピーされます):
- コンテキストをダンプしますが、クリップボードにコピーしません :
構成( .contextfiles
とオーバーライド)
Jinni は.contextfiles
(またはオーバーライド ファイル) を使用して、 .gitignore
スタイルのパターンに基づいて、含めるまたは除外するファイルとディレクトリを決定します。
- **コア原則:**処理中の現在のターゲット ディレクトリを基準にして、トラバーサル中にルールが動的に適用されます。
- 場所 (
.contextfiles
):.contextfiles
は任意のディレクトリに配置します。ディレクトリ(初期ターゲットまたはサブディレクトリ)を処理する際、Jinni はそのディレクトリから下に向かって.contextfiles
検索します。現在のターゲットディレクトリ外の親ディレクトリのルールは、そのターゲット内で処理する際には無視されます。 - **形式:**プレーンテキスト、UTF-8 エンコード、1 行につき 1 つのパターン。
- **構文:**標準の
.gitignore
パターン構文 (具体的にはpathspec
のgitwildmatch
実装) を使用します。- コメント:
#
で始まる行は無視されます。 - **包含パターン:**包含するファイル/ディレクトリを指定します (例:
src/**/*.py
、*.md
、/config.yaml
)。 - 除外パターン:
!
で始まる行は、一致するファイルを除外する必要があることを示します (パターンを否定します)。 - **アンカー:**先頭の
/
は、パターンを.contextfiles
を含むディレクトリにアンカーします。 - **ディレクトリ マッチング:**末尾の
/
はディレクトリのみに一致します。 - ワイルドカード:
*
、**
、?
は.gitignore
と同じように機能します。
- コメント:
- ルール適用ロジック:
- ターゲットの決定: Jinni はターゲット ディレクトリ (明示的に指定されたディレクトリまたはプロジェクト ルート) を識別します。
- オーバーライドチェック:
--overrides
(CLI) またはrules
(MCP) が指定されている場合、これらのルールのみが優先されます。.contextfiles.contextfiles
組み込みのデフォルトはすべて無視されます。パスのマッチングはターゲットディレクトリからの相対パスで行われます。 - **動的コンテキスト ルール (オーバーライドなし):**ターゲット ディレクトリ内のファイルまたはサブディレクトリを処理する場合:
- Jinni は、ターゲット ディレクトリから現在のアイテムのディレクトリまでのすべての
.gitignore
と.contextfiles
を検索します。 - 最初に
.gitignore
のルールが適用され、次に組み込みのデフォルトが適用され、最後に.contextfiles
(優先) が適用されます。 - これらの結合されたルールを仕様 (
PathSpec
) にコンパイルします。 - ターゲット ディレクトリを基準として計算された現在のファイル/サブディレクトリ パスをこの仕様と照合します。
- Jinni は、ターゲット ディレクトリから現在のアイテムのディレクトリまでのすべての
- マッチング:複合ルールセット内で、アイテムの相対パスに一致する最後のパターンが、そのアイテムの運命を決定します。
!
は一致を否定します。ユーザー定義のパターンに一致しない場合、組み込みのデフォルトの除外(!.*
など)に一致しない限り、アイテムは含まれます。 - **ターゲット処理:**明示的にターゲット指定されたファイルはルールチェックをバイパスします。明示的にターゲット指定されたディレクトリは、その内容のルール検出とマッチングのルートになります。出力パスは常に元の
project_root
からの相対パスになります。
例 ( .contextfiles
)
例1: Pythonソースとルート設定を含める
my_project/.contextfiles
にあります:
例2: サブディレクトリでの上書き
my_project/src/.contextfiles
にあります:
発達
- デザイン詳細: DESIGN.md
- **ローカルでのサーバーの実行:**開発中 (
uv pip install -e .
または同様のコマンドでインストールした後)、サーバー モジュールを直接実行できます。ローカル開発用の MCP クライアント構成の例:
トラブルシューティング
コンテキスト サイズ エラー ( DetailedContextSizeError
)
コンテキストサイズ制限を超えたことを示すエラーが発生した場合、Jinni は対象としようとしたファイルのサイズが大きい順に 10 個のリストを表示します。これにより、除外候補を特定しやすくなります。
これを解決するには:
- **最大サイズのファイルを確認する:**エラーメッセージに記載されているリストを確認してください。LLMのコンテキストに含まれない大きなファイル(例:データファイル、ログ、ビルド成果物、メディア)は存在しますか?
- **除外を構成する:**不要なファイルまたはディレクトリを除外するには、
.contextfiles
または--overrides
/rules
オプションを使用します。- **例 (
.contextfiles
):**すべての.log
ファイルと特定の大きなデータ ディレクトリを除外するには: - 詳細な構文と使用方法については、上記の構成セクションを参照してください。
- **例 (
- **制限値の増加(注意して使用してください):**インクルードされるすべてのファイルが本当に必要な場合は、
--size-limit-mb
(CLI)またはsize_limit_mb
(MCP)を使用してサイズ制限を増やすことができます。LLMコンテキストウィンドウの制限と処理コストに注意してください。 - **
jinni usage
/usage
を使用します。**トラブルシューティング中にこれらの手順または構成の詳細を参照する必要がある場合は、jinni usage
コマンドまたはusage
MCP ツールを使用します。
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Jinniは、大規模言語モデルにプロジェクトのコンテキストを効率的に提供するためのツールです。メタデータを含む関連プロジェクトファイルの統合ビューを提供し、ファイルを個別に読み込む際の制限や非効率性を解消します。
このツールの背景にある哲学は、LLMコンテキストが
- Include all Python files in the src directory and subdirectories
- Include the main config file at the root of the project
- Include all markdown files anywhere
- Exclude any test data directories found anywhere
- In addition to rules inherited from parent .contextfiles...
- Include specific utility scripts in this directory
- Exclude a specific generated file within src, even if \*.py is included elsewhere
Related MCP Servers
- AsecurityAlicenseAqualityIntegrates Jina.ai's Reader API with LLMs for efficient and structured web content extraction, optimized for documentation and web content analysis.Last updated -141930JavaScriptMIT License
- AsecurityAlicenseAqualityEnables efficient web search integration with Jina.ai's Search API, offering clean, LLM-optimized content retrieval with support for various content types and configurable caching.Last updated -14194JavaScriptMIT License
- AsecurityAlicenseAqualityIntegrates Jina.ai's Grounding API with LLMs for real-time, fact-based web content grounding and analysis, enhancing LLM responses with precise, verified information.Last updated -14192JavaScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables Large Language Models to interact with Binary Ninja for reverse engineering tasks like viewing assembly code, decompiled code, renaming functions, and adding comments.Last updated -2PythonMIT License