🧠 PAELLADOC: AIファースト開発フレームワーク
バージョン 0.3.7 : v0.3.6 ビルドで誤って省略されていたコアプロジェクトの CRUD ツールを復元するホットフィックスリリース。詳細はCHANGELOG をご確認ください。
「AI時代において、コンテキストはコードの補足ではなく、主な創造物なのです。」
PAELLADOC は、 AI ファースト開発の 5 つの哲学的原則を実装した AIファースト開発フレームワークであり、AI 時代のソフトウェアの作成方法を変革します。
🎯 PAELLADOC とモデルコンテキストプロトコル (MCP)
PAELLADOC は Anthropic の**Model Context Protocol (MCP)**を実装しています ( Anthropic のニュースを参照)。このプロトコルは、大規模言語モデル (LLM) が外部ツールやコンテキストとやり取りするための構造化された方法を提供し、より高度な機能を実現します。
PAELLADOCはMCPを実装することで、LLMが独自のAIファースト開発ツールとワークフローをこの標準規格を通じて直接活用できるようにします。このアプローチは、他のプラットフォームで見られるツール使用や関数呼び出しと同様の機能を実現しますが、インタラクションには特にAnthropic MCP標準規格を活用します。
🎯 AIファーストの哲学
従来の開発では、ドキュメント作成は後回しにされてきました。AIファースト開発では、このパラダイムを逆転させます。
- コンテキストが主要なアーティファクトになる
- コードがその表現となる
- 知識はシステムとともに進化する
- 決定は哲学的文脈を維持する
- 人間とAIのコラボレーションはシームレス
🧠 5つの原則の実践
1. 一次的創造としての文脈
- すべてのアーティファクトにはUUIDがあり、完全なトレーサビリティを実現しています。
- コンテキストはコードと並行してバージョン管理される
- ナレッジグラフは関係性を捉える
- あらゆる段階で意図が維持される
2. 意図主導型アーキテクチャ
- アーキテクチャは実装ではなく意図から生まれる
- あらゆる決定は哲学的文脈を捉えている
- システムは進化する目的に適応する
3. 生きた存在としての知識
- プロジェクトメモリは理解の進化を追跡します
- 変更に応じてドキュメントが自動的に更新されます
- 文脈は新鮮で関連性を保ちます
- ナレッジグラフは関係性を示す
4. 人間とAIの協調意識
- 自然言語による会話
- 意図の保存
- コンテキスト認識
- シームレスなコラボレーション
5. コンテキスト意思決定アーキテクチャ
- あらゆる決定はその文脈を保持する
- 将来の開発者は「なぜ」を理解する
- 変更は歴史的文脈を尊重する
- 意図は明確
🚀 インストールと統合
PAELLADOC は Python アプリケーションであり、専用の Python 仮想環境にインストールする必要があります。これにより依存関係が分離され、競合を回避できます。ドキュメント化するプロジェクト(Python、JS、Ruby など)の数に関係なく、PAELLADOC 環境は1 つ必要です。
(Python 3.12以降が必要です)
Smithery経由でインストール
Smithery経由で Claude Desktop 用の PAELLADOC を自動的にインストールするには:
1. 専用環境を作成してアクティブ化する
まず、この環境の永続的な場所を選択します。ホームディレクトリが適切な選択肢となる場合が多いです。
(ターミナルプロンプトの先頭に(.paelladoc_venv)
が表示されるはずです)
2. アクティベートされた環境にPAELLADOCをインストールする
3. データベースパスを構成する
PAELLADOC は、メモリデータベース ( memory.db
) を保存する場所を設定する必要があります。設定方法は主に2つあります。
オプション 1: 環境変数 (LLM 統合では信頼性が低い)
PAELLADOC_DB_PATH
環境変数を設定できます。これは、ターミナルから直接 PAELLADOC を実行する場合に有効です。
重要: PAELLADOC を LLM ツール(MCP 経由の Cursor など)で実行する場合、この方法で設定された環境変数が継承されない可能性があります。そのため、この方法は LLM との統合において信頼性が低くなります。
オプション 2: MCP 構成 (LLM 統合に推奨)
LLMツールが正しいデータベースパスを使用するようにする最も確実な方法は、ツールのMCP JSONファイル(Cursorの場合は.cursor/mcp.json
)内で直接設定することです。これにより、LLMによって起動されるサーバープロセスに変数が直接挿入されます。
次のセクションの例を参照してください。
4. LLM を構成する(MCP セットアップ)
次に、LLM ツール (Cursor など) に PAELLADOC を見つけて実行する方法を伝えます。
必要な主要情報:
- Python 実行ファイルへのフルパス:
.paelladoc_venv
内のpython
への絶対パス。
カーソルIDEの例
.cursor/mcp.json
ファイルを編集し、PAELLADOC のサーバー設定を追加します。以下に典型的な例を示します。
重要な注意事項:
command
パスは、手順1で作成した.paelladoc_venv
ファイル内のPython実行ファイルへの絶対パスでなければなりません。/absolute/path/to//absolute/path/to/
システム上の実際のパス(例:/Users/your_username/
)に置き換えてください。- データベース パス:
- デフォルトでは (
env
でPAELLADOC_DB_PATH
が設定されていない場合)、PAELLADOC は~/.paelladoc/memory.db
を使用します。 - ローカル開発でプロジェクトコードと並行してデータベースを使用する必要がある可能性がある場合は、
env
セクションにPAELLADOC_DB_PATH
設定する(例を参照)ことが推奨され、最も信頼性の高い方法です。/path/to/your/project/directory//path/to/your/project/directory/
実際のプロジェクトパスに置き換えてください。
- デフォルトでは (
- **作業ディレクトリ (
cwd
):**これをプロジェクト ディレクトリに設定すると便利ですが、多くの場合はオプションです。 - PYTHONPATH: PAELLADOC 自体でローカル開発を行っており、サーバーがソースコードを見つける必要がある場合は、
env
でこれを設定する必要があるかもしれません。
4. LLMの指導を受ける
接続すると、LLM はすべての PAELLADOC コマンドにアクセスできるようになります。
PAELLA
: 新しいドキュメントプロジェクトを開始するCONTINUE
: 既存のドキュメントを続行しますVERIFY
: ドキュメントの範囲を確認するGENERATE
: ドキュメントまたはコードを生成する
LLM がすべての複雑な部分を処理します。必要なのは、自然言語で意図を表現することだけです。
🚦 バージョンの安定性
- PyPI バージョン (安定): PyPI (
pip install paelladoc
) で公開されているバージョンは、一般的な使用に推奨される安定したリリースです。 - GitHubリポジトリ(開発版): GitHubリポジトリの
main
ブランチ(およびその他のブランチ)には、最新の開発コードが含まれています。このバージョンには、まだ完全にテストされていない新機能や変更が含まれている可能性があり、不安定な状態とみなされます。最先端の機能を試したり、開発に貢献したりしたい場合は、このバージョンをご利用ください。
**現在の開発状況について:**現在、社内では重要な新機能を備えたMVPの提供に注力しており、活発な開発が進められています。PyPIバージョンは安定稼働していますが、当面は非公開の環境でこの目標達成に向けて作業を進めているため、今後のリリースでは大幅な進歩が期待できます。
🚀 クイックスタート
- PAELLADOC がインストールされ(
pip install paelladoc
)、LLM のツール/MCP 設定で構成されていることを確認します (上記の例を参照)。 - コマンドを発行することで、LLM を介してPAELLADOC とのやり取りを開始します。新しいプロジェクトを開始したり、既存のプロジェクトを一覧表示したりする主なコマンドは
PAELLA
です。- Cursor または同様のチャット インターフェースでは、次のように入力します。
- あるいは、LLM にさらに明示的に指示することもできます。
- Cursor または同様のチャット インターフェースでは、次のように入力します。
- LLM の指示に従ってください。PAELLADOC (LLM 経由) が、プロジェクトの詳細やテンプレートの選択などを尋ねながら、対話形式でプロセスをガイドします。
⚙️ 利用可能なコマンド (v0.3.7)
このバージョンでは、LLM との対話のために MCP 経由で公開される次のコア コマンドが提供されます。
ping
:- **説明:**サーバーが実行中であり、応答していることを確認するための基本的なヘルス チェック。
- **引数:**なし (またはオプションの
random_string
)。 - 戻り値:
{ "status": "ok", "message": "pong" }
。
paella_init
:- **説明:**新しい PAELLADOC プロジェクトを初期化し、必要な構造と初期メモリ ファイルを作成します。
- 引数:
base_path
(str)、documentation_language
(str、例: "es-ES")、interaction_language
(str、例: "en-US")、new_project_name
(str)。 - **戻り値:**プロジェクトの作成ステータス、名前、およびパスを確認する辞書。
paella_list
:- **説明:**メモリ データベースで見つかった既存のすべての PAELLADOC プロジェクトの名前を一覧表示します。
- **引数:**なし。
- **戻り値:**プロジェクト名 (
projects
) のリストを含む辞書。
paella_select
:- **説明:**作業する既存の PAELLADOC プロジェクトを選択します (そのメモリをロードします)。
- 引数:
project_name
(str)。 - **戻り値:**プロジェクトの選択とその基本パスを確認する辞書。
core_continue
:- **説明:**以前に選択したプロジェクトの作業を続行し、そのメモリをロードして次のステップを提案します (基本的な実装)。
- 引数:
project_name
(str)。 - **戻り値:**プロジェクトのステータスと提案される次のステップを含む辞書。
core_help
:- **説明:**使用可能なコマンドに関するヘルプ情報を提供します (基本的なスタブ実装)。
- **引数:**なし (将来: 特定のコマンド)。
- **戻り値:**プレースホルダー成功メッセージ。
core_list_projects
:- 説明: (おそらく
paella_list
と重複) 既存の PAELLADOC プロジェクトの名前を一覧表示します。 - 引数:
db_path
(str、オプション、テスト用)。 - **戻り値:**プロジェクト名 (
projects
) のリストを含む辞書。
- 説明: (おそらく
core_verification
:- **説明:**ドキュメントの品質と完全性をチェックします (基本的なスタブ実装)。
- **引数:**なし。
- **戻り値:**プレースホルダー成功メッセージ。
🗺️ 今後のロードマップのハイライト
統合ロードマップに基づいて、将来のバージョンでは以下を含めることを目指しています。
- 完全なインタラクティブなドキュメント生成フロー (
GENERATE-DOC
)。 - コード分析とコンテキスト生成 (
GENERATE_CONTEXT
)。 - ドキュメントからの自動コード生成 (
code_generation
)。 - コーディング スタイルと Git ワークフローの管理 (
styles.coding_styles
、styles.git_workflows
)。 - 決定、問題、成果 (
DECISION
、ISSUE
、ACHIEVEMENT
) に関するプロジェクト メモリ コマンド。 - さらに、MECE タクソノミーと A2A 機能に準拠しています。
📊 MECE ドキュメント構造
当社の AI ファースト分類法は、完全なコンテキストの保持を保証します。
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
AI ファースト開発フレームワークの原則を実装するモデル コンテキスト プロトコル (MCP) サーバー。LLM がコンテキスト ファーストのドキュメント ツールやワークフローと対話して、コードとともに知識と意図を保存できるようにします。
Related MCP Servers
- AsecurityAlicenseAqualityA Model Context Protocol server that enables LLMs to safely execute make targets from a Makefile, allowing AI assistants to run tests, format code, and automate various development tasks through natural language interaction.Last updated -12PythonMIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that exposes the official Notion SDK, allowing AI models to interact with Notion workspaces.Last updated -17777TypeScriptApache 2.0
- -securityFlicense-qualityA generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.Last updated -TypeScript
- -security-license-qualityA specialized server that helps users create new Model Context Protocol (MCP) servers by providing tools and templates for scaffolding projects with various capabilities.Last updated -1TypeScript