Skip to main content
Glama

PAELLADOC

by jlcases

🧠 PAELLADOC: AIファースト開発フレームワーク

公式ウェブサイトをご覧ください

状態哲学MCP更新

バージョン 0.3.7 : v0.3.6 ビルドで誤って省略されていたコアプロジェクトの CRUD ツールを復元するホットフィックスリリース。詳細はCHANGELOG をご確認ください。

「AI時代において、コンテキストはコードの補足ではなく、主な創造物なのです。」

PAELLADOC は、 AI ファースト開発の 5 つの哲学的原則を実装した AIファースト開発フレームワークであり、AI 時代のソフトウェアの作成方法を変革します。

🎯 PAELLADOC とモデルコンテキストプロトコル (MCP)

PAELLADOC は Anthropic の**Model Context Protocol (MCP)**を実装しています ( Anthropic のニュースを参照)。このプロトコルは、大規模言語モデル (LLM) が外部ツールやコンテキストとやり取りするための構造化された方法を提供し、より高度な機能を実現します。

PAELLADOCはMCPを実装することで、LLMが独自のAIファースト開発ツールとワークフローをこの標準規格を通じて直接活用できるようにします。このアプローチは、他のプラットフォームで見られるツール使用関数呼び出しと同様の機能を実現しますが、インタラクションには特にAnthropic MCP標準規格を活用します。

🎯 AIファーストの哲学

従来の開発では、ドキュメント作成は後回しにされてきました。AIファースト開発では、このパラダイムを逆転させます。

  • コンテキストが主要なアーティファクトになる
  • コードがその表現となる
  • 知識はシステムとともに進化する
  • 決定は哲学的文脈を維持する
  • 人間とAIのコラボレーションはシームレス

🧠 5つの原則の実践

1. 一次的創造としての文脈

# Traditional Way write_code() -> document() # PAELLADOC Way create_context() -> manifest_as_code()
  • すべてのアーティファクトにはUUIDがあり、完全なトレーサビリティを実現しています。
  • コンテキストはコードと並行してバージョン管理される
  • ナレッジグラフは関係性を捉える
  • あらゆる段階で意図が維持される

2. 意図主導型アーキテクチャ

  • アーキテクチャは実装ではなく意図から生まれる
  • あらゆる決定は哲学的文脈を捉えている
  • システムは進化する目的に適応する

3. 生きた存在としての知識

# Knowledge evolves with your system paella continue my-project
  • プロジェクトメモリは理解の進化を追跡します
  • 変更に応じてドキュメントが自動的に更新されます
  • 文脈は新鮮で関連性を保ちます
  • ナレッジグラフは関係性を示す

4. 人間とAIの協調意識

# Not just code generation, but true collaboration with paelladoc.context() as ctx: ctx.understand_intent() ctx.propose_solutions() ctx.implement_with_human()
  • 自然言語による会話
  • 意図の保存
  • コンテキスト認識
  • シームレスなコラボレーション

5. コンテキスト意思決定アーキテクチャ

decision: id: uuid-123 intent: "Why we chose this path" context: "What we knew at the time" alternatives: "What we considered" implications: "Future impact"
  • あらゆる決定はその文脈を保持する
  • 将来の開発者は「なぜ」を理解する
  • 変更は歴史的文脈を尊重する
  • 意図は明確

🚀 インストールと統合

インストールデモ

PAELLADOC は Python アプリケーションであり、専用の Python 仮想環境にインストールする必要があります。これにより依存関係が分離され、競合を回避できます。ドキュメント化するプロジェクト(Python、JS、Ruby など)の数に関係なく、PAELLADOC 環境は1 つ必要です。

(Python 3.12以降が必要です)

Smithery経由でインストール

Smithery経由で Claude Desktop 用の PAELLADOC を自動的にインストールするには:

npx -y @smithery/cli install @jlcases/paelladoc --client claude

1. 専用環境を作成してアクティブ化する

まず、この環境の永続的な場所を選択します。ホームディレクトリが適切な選択肢となる場合が多いです。

# Navigate to where you want to store the environment (e.g., your home directory) # cd ~ # Uncomment and run if you want it in your home directory # Create the virtual environment (using python3.12 or your installed 3.12+ version) # We'll name the folder '.paelladoc_venv' (starting with a dot makes it hidden) python3.12 -m venv .paelladoc_venv # Activate the environment # (The command depends on your shell. Use ONE of the following) # For Bash/Zsh: source .paelladoc_venv/bin/activate # For Fish: # source .paelladoc_venv/bin/activate.fish # For Powershell (Windows): # .\.paelladoc_venv\Scripts\activate.ps1

(ターミナルプロンプトの先頭に(.paelladoc_venv)が表示されるはずです)

2. アクティベートされた環境にPAELLADOCをインストールする

# Make sure your (.paelladoc_venv) prompt is visible before running pip pip install paelladoc

3. データベースパスを構成する

PAELLADOC は、メモリデータベース ( memory.db ) を保存する場所を設定する必要があります。設定方法は主に2つあります。

オプション 1: 環境変数 (LLM 統合では信頼性が低い)

PAELLADOC_DB_PATH環境変数を設定できます。これは、ターミナルから直接 PAELLADOC を実行する場合に有効です。

# Example: Set the variable in your current terminal session export PAELLADOC_DB_PATH="$HOME/.paelladoc/memory.db" # Optional: Add the export line to your shell's startup file # (.bashrc, .zshrc, etc.) for it to persist across sessions.

重要: PAELLADOC を LLM ツール(MCP 経由の Cursor など)で実行する場合、この方法で設定された環境変数が継承されない可能性があります。そのため、この方法は LLM との統合において信頼性が低くなります

オプション 2: MCP 構成 (LLM 統合に推奨)

LLMツールが正しいデータベースパスを使用するようにする最も確実な方法は、ツールのMCP JSONファイル(Cursorの場合は.cursor/mcp.json )内で直接設定することです。これにより、LLMによって起動されるサーバープロセスに変数が直接挿入されます。

次のセクションの例を参照してください。

4. LLM を構成する(MCP セットアップ)

次に、LLM ツール (Cursor など) に PAELLADOC を見つけて実行する方法を伝えます。

必要な主要情報:

  • Python 実行ファイルへのフルパス: .paelladoc_venv内のpythonへの絶対パス。
カーソルIDEの例

.cursor/mcp.jsonファイルを編集し、PAELLADOC のサーバー設定を追加します。以下に典型的な例を示します。

{ "mcpServers": { "Paelladoc": { "command": "/absolute/path/to/.paelladoc_venv/bin/python", "args": [ "-m", "paelladoc.ports.input.mcp_server_adapter", "--stdio" ], "cwd": "/path/to/your/project/directory", // Optional: Set working directory "env": { // Recommended for local dev: Use a DB in your project folder "PAELLADOC_DB_PATH": "/path/to/your/project/directory/paelladoc_memory.db", // Optional: Add src to PYTHONPATH if needed for local development imports "PYTHONPATH": "/path/to/your/project/directory/src:/path/to/your/project/directory" }, "disabled": false } }, "mcp.timeout": 120000 }

重要な注意事項:

  • commandパスは、手順1で作成した.paelladoc_venvファイル内のPython実行ファイルへの絶対パスでなければなりません。/absolute/path/to/ /absolute/path/to/システム上の実際のパス(例: /Users/your_username/ )に置き換えてください。
  • データベース パス:
    • デフォルトでは ( envPAELLADOC_DB_PATHが設定されていない場合)、PAELLADOC は~/.paelladoc/memory.dbを使用します。
    • ローカル開発でプロジェクトコードと並行してデータベースを使用する必要がある可能性がある場合は、 envセクションにPAELLADOC_DB_PATH設定する(例を参照)ことが推奨され、最も信頼性の高い方法です。/path/to/your/project/directory/ /path/to/your/project/directory/実際のプロジェクトパスに置き換えてください。
  • **作業ディレクトリ ( cwd ):**これをプロジェクト ディレクトリに設定すると便利ですが、多くの場合はオプションです。
  • PYTHONPATH: PAELLADOC 自体でローカル開発を行っており、サーバーがソースコードを見つける必要がある場合は、 envでこれを設定する必要があるかもしれません。

4. LLMの指導を受ける

接続すると、LLM はすべての PAELLADOC コマンドにアクセスできるようになります。

  • PAELLA : 新しいドキュメントプロジェクトを開始する
  • CONTINUE : 既存のドキュメントを続行します
  • VERIFY : ドキュメントの範囲を確認する
  • GENERATE : ドキュメントまたはコードを生成する

LLM がすべての複雑な部分を処理します。必要なのは、自然言語で意図を表現することだけです。

🚦 バージョンの安定性

  • PyPI バージョン (安定): PyPI ( pip install paelladoc ) で公開されているバージョンは、一般的な使用に推奨される安定したリリースです。
  • GitHubリポジトリ(開発版): GitHubリポジトリmainブランチ(およびその他のブランチ)には、最新の開発コードが含まれています。このバージョンには、まだ完全にテストされていない新機能や変更が含まれている可能性があり、不安定な状態とみなされます。最先端の機能を試したり、開発に貢献したりしたい場合は、このバージョンをご利用ください。

**現在の開発状況について:**現在、社内では重要な新機能を備えたMVPの提供に注力しており、活発な開発が進められています。PyPIバージョンは安定稼働していますが、当面は非公開の環境でこの目標達成に向けて作業を進めているため、今後のリリースでは大幅な進歩が期待できます。

🚀 クイックスタート

  1. PAELLADOC がインストールされ( pip install paelladoc )、LLM のツール/MCP 設定で構成されていることを確認します (上記の例を参照)。
  2. コマンドを発行することで、LLM を介してPAELLADOC とのやり取りを開始します。新しいプロジェクトを開始したり、既存のプロジェクトを一覧表示したりする主なコマンドはPAELLAです。
    • Cursor または同様のチャット インターフェースでは、次のように入力します。
      PAELLA
    • あるいは、LLM にさらに明示的に指示することもできます。
      Use PAELLADOC to start documenting a new project.
      Tell PAELLADOC I want to create documentation.
  3. LLM の指示に従ってください。PAELLADOC (LLM 経由) が、プロジェクトの詳細やテンプレートの選択などを尋ねながら、対話形式でプロセスをガイドします。

⚙️ 利用可能なコマンド (v0.3.7)

このバージョンでは、LLM との対話のために MCP 経由で公開される次のコア コマンドが提供されます。

  • ping :
    • **説明:**サーバーが実行中であり、応答していることを確認するための基本的なヘルス チェック。
    • **引数:**なし (またはオプションのrandom_string )。
    • 戻り値: { "status": "ok", "message": "pong" }
  • paella_init :
    • **説明:**新しい PAELLADOC プロジェクトを初期化し、必要な構造と初期メモリ ファイルを作成します。
    • 引数: base_path (str)、 documentation_language (str、例: "es-ES")、 interaction_language (str、例: "en-US")、 new_project_name (str)。
    • **戻り値:**プロジェクトの作成ステータス、名前、およびパスを確認する辞書。
  • paella_list :
    • **説明:**メモリ データベースで見つかった既存のすべての PAELLADOC プロジェクトの名前を一覧表示します。
    • **引数:**なし。
    • **戻り値:**プロジェクト名 ( projects ) のリストを含む辞書。
  • paella_select :
    • **説明:**作業する既存の PAELLADOC プロジェクトを選択します (そのメモリをロードします)。
    • 引数: project_name (str)。
    • **戻り値:**プロジェクトの選択とその基本パスを確認する辞書。
  • core_continue :
    • **説明:**以前に選択したプロジェクトの作業を続行し、そのメモリをロードして次のステップを提案します (基本的な実装)。
    • 引数: project_name (str)。
    • **戻り値:**プロジェクトのステータスと提案される次のステップを含む辞書。
  • core_help :
    • **説明:**使用可能なコマンドに関するヘルプ情報を提供します (基本的なスタブ実装)。
    • **引数:**なし (将来: 特定のコマンド)。
    • **戻り値:**プレースホルダー成功メッセージ。
  • core_list_projects :
    • 説明: (おそらくpaella_listと重複) 既存の PAELLADOC プロジェクトの名前を一覧表示します。
    • 引数: db_path (str、オプション、テスト用)。
    • **戻り値:**プロジェクト名 ( projects ) のリストを含む辞書。
  • core_verification :
    • **説明:**ドキュメントの品質と完全性をチェックします (基本的なスタブ実装)。
    • **引数:**なし。
    • **戻り値:**プレースホルダー成功メッセージ。

🗺️ 今後のロードマップのハイライト

統合ロードマップに基づいて、将来のバージョンでは以下を含めることを目指しています。

  • 完全なインタラクティブなドキュメント生成フロー ( GENERATE-DOC )。
  • コード分析とコンテキスト生成 ( GENERATE_CONTEXT )。
  • ドキュメントからの自動コード生成 ( code_generation )。
  • コーディング スタイルと Git ワークフローの管理 ( styles.coding_stylesstyles.git_workflows )。
  • 決定、問題、成果 ( DECISIONISSUEACHIEVEMENT ) に関するプロジェクト メモリ コマンド。
  • さらに、MECE タクソノミーと A2A 機能に準拠しています。

📊 MECE ドキュメント構造

当社の AI ファースト分類法は、完全なコンテキストの保持を保証します。

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    A Model Context Protocol server that enables LLMs to safely execute make targets from a Makefile, allowing AI assistants to run tests, format code, and automate various development tasks through natural language interaction.
    Last updated -
    1
    2
    Python
    MIT License
  • A
    security
    A
    license
    A
    quality
    A Model Context Protocol (MCP) server that exposes the official Notion SDK, allowing AI models to interact with Notion workspaces.
    Last updated -
    17
    77
    7
    TypeScript
    Apache 2.0
    • Apple
    • Linux
  • -
    security
    F
    license
    -
    quality
    A generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.
    Last updated -
    TypeScript
  • -
    security
    -
    license
    -
    quality
    A specialized server that helps users create new Model Context Protocol (MCP) servers by providing tools and templates for scaffolding projects with various capabilities.
    Last updated -
    1
    TypeScript

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/jlcases/paelladoc'

If you have feedback or need assistance with the MCP directory API, please join our Discord server