Skip to main content
Glama

CTX: Context as Code (CaC) tool

by context-hub
MIT License
123
  • Apple
  • Linux

ctx: コードベースと LLM 間の欠けているリンク。MCP サーバーを内蔵した Context as Code (CaC) ツール。

おはようございます、LLM

目次

CTX は、ChatGPT や Claude などの LLM とチャットする際の大きな問題、つまりプロジェクトに関する十分なコンテキストを提供するという問題を解決するために作成されたツールです。

Mediumには Context Generator に関する記事があり、プロジェクトの背後にある動機とそれが解決する問題について説明しています。

AI開発において、コンテキストは単なる便利な情報ではなく、全てを左右します。コードベース全体を毎回手動でコピーしたり説明したりする代わりに、ctxは以下の情報から整理されたコンテキストファイルを自動的に構築します。

  • コードファイル、
  • GitHubとGitlabのリポジトリ
  • Gitのコミットと差分
  • CSSセレクターを含むWebページ(URL)
  • MCPサーバー
  • およびプレーンテキスト。

これは**、Claude のような AI 言語モデルにコードベースに関する必要なコンテキストを効率的に提供するという一般的な問題を解決するために作成されました。**

仕組み

  1. ファイル、ディレクトリ、GitHub または Gitlab リポジトリ、Web ページ、またはプレーン テキストからコードを収集します。
  2. パターンマッチング、コンテンツ検索、サイズ、日付フィルターを通じて特定のファイルをターゲットにします
  3. オプションの修飾子を適用する(実装の詳細なしで PHP 署名を抽出するなど)
  4. コンテンツを整理して、構造化されたマークダウン文書にする
  5. LLMと共有できるコンテキストファイルを保存します
  6. オプションでMCPサーバーを通じてコンテキストを提供し、クロードのようなAIアシスタントがプロジェクト情報に直接アクセスできるようにします。

クイックスタート

CTXの使い始めは簡単です。以下の簡単な手順に従って、最初のコンテキストファイルを作成してください。

1. CTXをインストールする

インストール スクリプトを使用してツールをダウンロードしてインストールします。

curl -sSL https://raw.githubusercontent.com/context-hub/generator/main/download-latest.sh | sh

これにより、 ctxコマンドがシステム (通常は/usr/local/bin ) にインストールされます。

**さらにオプションが必要ですか?**代替インストール方法については、完全なインストール ガイドを参照してください。

2. 設定ファイルを初期化する

プロジェクト ディレクトリに新しい構成ファイルを作成します。

ctx init

これにより、開始するための基本構造を持つcontext.yamlファイルが生成されます。

使用可能なすべてのコマンドとオプションについては、コマンド リファレンスを確認してください。

3. プロジェクトの構造を説明する

生成されたcontext.yamlファイルを編集して、含めるコードまたはコンテンツを指定します。

例えば:

$schema: 'https://raw.githubusercontent.com/context-hub/generator/refs/heads/main/json-schema.json' documents: - description: "User Authentication System" outputPath: "auth-context.md" sources: - type: file description: "Authentication Controllers" sourcePaths: - src/Auth filePattern: "*.php" - type: file description: "Authentication Models" sourcePaths: - src/Models filePattern: "*User*.php"

この構成ではsrc/Authディレクトリからすべての PHP ファイルと、 src/Modelsディレクトリから名前に「User」が含まれるすべての PHP ファイルが収集されます。

さらに高度な設定が必要ですか?

4. コンテキストを構築する

次のコマンドを実行してコンテキスト ファイルを生成します。

ctx

CTX は設定を処理し、指定された出力ファイル (この例ではauth-context.md ) を作成します。

ヒント: 詳細な出力を得るには、 -v-vv 、または-vvvログを設定します。

5. LLMと共有する

生成されたコンテキストファイルを、お気に入りのLLM(ChatGPTやClaudeなど)にアップロードまたは貼り付けてください。これで、コードベースに関する具体的な質問をすることができ、LLMは必要なコンテキストに基づいて正確なサポートを提供できるようになります。

プロンプトの例:

認証システムのコードを共有させていただきました。ユーザー登録プロセスにおける潜在的なセキュリティ上の脆弱性を特定するお手伝いをお願いできますか?

次のステップ: AI を活用した開発ワークフローにコンテキスト生成を統合するためのベスト プラクティスについては、 「コンテキスト ジェネレータを使用した開発」を参照してください。

これで完了です。コードベースに関する適切なコンテキストを使用して LLM を活用する準備が整いました。

6. Claude AIに接続する(オプション)

よりシームレスなエクスペリエンスを実現するには、MCP サーバーを使用して Context Generator を Claude AI に直接接続できます。

Claude AI をコードベースに直接接続できる MCP サーバーが組み込まれています。

MCP クライアントをコンテキスト ジェネレーター サーバーにポイントします。

{ "mcpServers": { "ctx": { "command": "ctx server -c /path/to/your/project" } } }

**注:**詳細なセットアップ手順については、 MCP サーバーの詳細をご覧ください。

コンテキスト ファイルを手動でアップロードしなくても、コードベースについて Claude に質問できるようになりました。

完全なドキュメント

利用可能なすべての機能と構成オプションを含む完全なドキュメントについては、次の Web サイトをご覧ください。

https://docs.ctxgithub.com


ライセンス

このプロジェクトは MIT ライセンスに基づいてライセンスされています。

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

CTX は、ChatGPT や Claude などの LLM とチャットする際の大きな問題、つまりプロジェクトに関する十分なコンテキストを提供することを解決するために作成されたツールです。

  1. 目次
    1. 仕組み
      1. クイックスタート
        1. CTXをインストールする
        2. 設定ファイルを初期化する
        3. プロジェクトの構造を説明する
        4. コンテキストを構築する
        5. LLMと共有する
        6. Claude AIに接続する(オプション)
        7. 完全なドキュメント

      Related MCP Servers

      • A
        security
        A
        license
        A
        quality
        An MCP server that allows Claude to create, manage and publish X/Twitter posts directly through the chat interface.
        Last updated -
        5
        35
        Python
        MIT License
        • Apple
      • -
        security
        F
        license
        -
        quality
        An MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.
        Last updated -
        Python
      • -
        security
        F
        license
        -
        quality
        Allows LLM tools like Claude Desktop and Cursor AI to access and summarize code files through a Model Context Protocol server, providing structured access to codebase content without manual copying.
        Last updated -
        TypeScript
        • Linux
        • Apple
      • -
        security
        F
        license
        -
        quality
        MCP ChatGPT Responses connects Claude to ChatGPT through two essential tools: standard queries for AI-to-AI conversations and web-enabled requests for current information. It uses OpenAI's Responses API to maintain conversation state automatically.
        Last updated -
        5
        Python

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/context-hub/generator'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server