Skip to main content
Glama

PAELLADOC

by jlcases

🧠 PAELLADOC: El marco de desarrollo que prioriza la IA

Visita el sitio web oficial

EstadoFilosofíaMCPActualizado

Versión 0.3.7 : Lanzamiento de una revisión que restaura las herramientas CRUD principales del proyecto, omitidas inadvertidamente en la compilación v0.3.6. ¡Consulta el registro de cambios para más detalles!

En la era de la IA, el contexto no es un complemento del código: es la creación primaria.

PAELLADOC es un marco de desarrollo AI-First que implementa los 5 principios filosóficos del desarrollo AI-First , transformando la forma en que creamos software en la era de la IA.

🎯 PAELLADOC y el Protocolo de Contexto Modelo (MCP)

PAELLADOC implementa el Protocolo de Contexto de Modelo (MCP) de Anthropic ( ver noticias de Anthropic ). Este protocolo proporciona una forma estructurada para que los Modelos de Lenguaje Grandes (LLM) interactúen con herramientas y contexto externos, lo que permite capacidades más sofisticadas.

Al implementar MCP, PAELLADOC permite a los LLM aprovechar sus herramientas y flujos de trabajo de desarrollo específicos de IA-First directamente a través de este estándar. Este enfoque facilita funcionalidades similares al uso de herramientas o la llamada a funciones, presentes en otras plataformas, pero utiliza específicamente el estándar MCP antrópico para la interacción.

🎯 La filosofía de la IA primero

El desarrollo tradicional trata la documentación como algo secundario. El desarrollo basado en IA invierte este paradigma:

  • El contexto se convierte en el artefacto principal
  • El código se convierte en su manifestación
  • El conocimiento evoluciona junto con los sistemas
  • Las decisiones conservan su contexto filosófico
  • La colaboración entre humanos e IA es fluida

🧠 Los cinco principios en acción

1. El contexto como creación primaria

# Traditional Way write_code() -> document() # PAELLADOC Way create_context() -> manifest_as_code()
  • Cada artefacto tiene un UUID para una trazabilidad perfecta
  • El contexto se versiona junto con el código
  • Los gráficos de conocimiento capturan relaciones
  • La intención se conserva en cada paso.

2. Arquitectura basada en intenciones

  • La arquitectura surge de la intención, no de la implementación
  • Cada decisión captura su contexto filosófico
  • Los sistemas se adaptan a la evolución del propósito

3. El conocimiento como entidad viva

# Knowledge evolves with your system paella continue my-project
  • La memoria del proyecto rastrea la evolución de la comprensión
  • La documentación se actualiza automáticamente con los cambios.
  • El contexto se mantiene fresco y relevante
  • Los gráficos de conocimiento muestran relaciones

4. Conciencia colaborativa humano-IA

# Not just code generation, but true collaboration with paelladoc.context() as ctx: ctx.understand_intent() ctx.propose_solutions() ctx.implement_with_human()
  • Conversaciones en lenguaje natural
  • Preservación de la intención
  • Conciencia contextual
  • Colaboración fluida

5. Arquitectura de decisión contextual

decision: id: uuid-123 intent: "Why we chose this path" context: "What we knew at the time" alternatives: "What we considered" implications: "Future impact"
  • Cada decisión conserva su contexto
  • Los futuros desarrolladores entienden el "por qué"
  • Los cambios respetan el contexto histórico
  • La intención sigue siendo clara

🚀 Instalación e Integración

Demostración de instalación

PAELLADOC es una aplicación Python y debe instalarse en su propio entorno virtual Python . Esto mantiene sus dependencias separadas y evita conflictos. Necesitará un entorno PAELLADOC, independientemente de cuántos proyectos diferentes (Python, JS, Ruby, etc.) planee documentar.

(Requiere Python 3.12 o posterior)

Instalación mediante herrería

Para instalar PAELLADOC para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @jlcases/paelladoc --client claude

1. Crear y activar el entorno dedicado

Primero, elija una ubicación permanente para este entorno. Su directorio personal suele ser una buena opción.

# Navigate to where you want to store the environment (e.g., your home directory) # cd ~ # Uncomment and run if you want it in your home directory # Create the virtual environment (using python3.12 or your installed 3.12+ version) # We'll name the folder '.paelladoc_venv' (starting with a dot makes it hidden) python3.12 -m venv .paelladoc_venv # Activate the environment # (The command depends on your shell. Use ONE of the following) # For Bash/Zsh: source .paelladoc_venv/bin/activate # For Fish: # source .paelladoc_venv/bin/activate.fish # For Powershell (Windows): # .\.paelladoc_venv\Scripts\activate.ps1

(Deberías ver (.paelladoc_venv) al comienzo de tu terminal ahora)

2. Instalar PAELLADOC en el entorno activado

# Make sure your (.paelladoc_venv) prompt is visible before running pip pip install paelladoc

3. Configurar la ruta de la base de datos

PAELLADOC necesita saber dónde almacenar su base de datos de memoria ( memory.db ). Hay dos maneras principales de configurarlo:

Opción 1: Variable de entorno (menos confiable para la integración de LLM)

Puedes configurar la variable de entorno PAELLADOC_DB_PATH . Esto funciona bien si ejecutas PAELLADOC directamente desde la terminal.

# Example: Set the variable in your current terminal session export PAELLADOC_DB_PATH="$HOME/.paelladoc/memory.db" # Optional: Add the export line to your shell's startup file # (.bashrc, .zshrc, etc.) for it to persist across sessions.

Importante: Cuando PAELLADOC se ejecuta con una herramienta LLM (como Cursor mediante MCP), es posible que no herede las variables de entorno configuradas de esta manera. Por lo tanto, este método es menos fiable para la integración con LLM.

Opción 2: Configuración de MCP (recomendada para la integración de LLM)

La forma más fiable de garantizar que su herramienta LLM utilice la ruta de base de datos correcta es configurarla directamente en el archivo JSON MCP de la herramienta ( .cursor/mcp.json para Cursor). Esto inyecta la variable directamente en el proceso del servidor iniciado por LLM.

Vea los ejemplos en la siguiente sección.

4. Configure su LLM (configuración de MCP)

Ahora, dígale a su herramienta LLM (como Cursor) cómo encontrar y ejecutar PAELLADOC.

Información clave necesaria:

  • Ruta completa al ejecutable de Python: ruta absoluta a python dentro de su .paelladoc_venv .
Ejemplo de IDE de cursor

Edite su archivo .cursor/mcp.json . Añada una configuración de servidor para PAELLADOC. A continuación, un ejemplo típico:

{ "mcpServers": { "Paelladoc": { "command": "/absolute/path/to/.paelladoc_venv/bin/python", "args": [ "-m", "paelladoc.ports.input.mcp_server_adapter", "--stdio" ], "cwd": "/path/to/your/project/directory", // Optional: Set working directory "env": { // Recommended for local dev: Use a DB in your project folder "PAELLADOC_DB_PATH": "/path/to/your/project/directory/paelladoc_memory.db", // Optional: Add src to PYTHONPATH if needed for local development imports "PYTHONPATH": "/path/to/your/project/directory/src:/path/to/your/project/directory" }, "disabled": false } }, "mcp.timeout": 120000 }

Notas importantes:

  • La ruta commanddebe ser la ruta absoluta al ejecutable de Python dentro de su archivo .paelladoc_venv (creado en el paso 1). Reemplace /absolute/path/to/ con la ruta real en su sistema (por ejemplo, /Users/your_username/ ).
  • Ruta de la base de datos:
    • De forma predeterminada (si PAELLADOC_DB_PATHno está configurado en env ), PAELLADOC usa ~/.paelladoc/memory.db .
    • Para el desarrollo local, donde podría necesitar la base de datos junto con el código de su proyecto, configurar PAELLADOC_DB_PATH en la sección env (como se muestra en el ejemplo) es el enfoque recomendado y más confiable . Reemplace /path/to/your/project/directory/ con la ruta real de su proyecto.
  • Directorio de trabajo ( cwd ): configurarlo en el directorio de su proyecto puede ser útil, pero a menudo es opcional.
  • PYTHONPATH: Configurar esto en env puede ser necesario si está realizando un desarrollo local en PAELLADOC y necesita que el servidor encuentre su código fuente.

4. Deja que el LLM te guíe

Una vez conectado, su LLM tendrá acceso a todos los comandos de PAELLADOC:

  • PAELLA : Iniciar nuevos proyectos de documentación
  • CONTINUE : Continuar la documentación existente
  • VERIFY : Verificar la cobertura de la documentación
  • GENERATE : Generar documentación o código

El LLM se ocupará de toda la complejidad: ¡usted sólo tendrá que expresar su intención en lenguaje natural!

🚦 Estabilidad de la versión

  • Versión de PyPI (estable): Las versiones publicadas en PyPI ( pip install paelladoc ) son versiones estables recomendadas para uso general.
  • Repositorio de GitHub (Desarrollo): La rama main (y otras ramas) del repositorio de GitHub contiene el código de desarrollo más reciente. Esta versión puede incluir nuevas funciones o cambios que aún no se han probado completamente y deben considerarse inestables. Usa esta versión si quieres probar funciones de vanguardia o contribuir al desarrollo.

Nota sobre el desarrollo actual: El desarrollo activo se centra actualmente en la entrega interna de un MVP con nuevas y significativas capacidades. Si bien la versión de PyPI se mantiene estable, se esperan avances importantes en futuras versiones a medida que trabajamos para lograr este objetivo en un entorno más privado por ahora.

🚀 Inicio rápido

  1. Asegúrese de que PAELLADOC esté instalado ( pip install paelladoc ) y configurado en la configuración de herramientas/MCP de su LLM (vea los ejemplos anteriores).
  2. Comience a interactuar con PAELLADOC a través de su LLM ejecutando un comando. El comando principal para iniciar un nuevo proyecto o listar los existentes es PAELLA .
    • En Cursor o una interfaz de chat similar, simplemente escriba:
      PAELLA
    • Alternativamente, puede instruir al LLM de manera más explícita:
      Use PAELLADOC to start documenting a new project.
      Tell PAELLADOC I want to create documentation.
  3. Siga el ejemplo del LLM: PAELLADOC (a través del LLM) lo guiará a través del proceso de forma interactiva y le solicitará detalles del proyecto, opciones de plantillas, etc.

⚙️ Comandos disponibles (v0.3.7)

Esta versión proporciona los siguientes comandos principales, expuestos a través de MCP para la interacción con su LLM:

  • ping :
    • Descripción: Comprobación básica del estado del servidor para confirmar que está funcionando y responde.
    • Argumentos: Ninguno (o random_string opcional).
    • Devuelve: { "status": "ok", "message": "pong" } .
  • paella_init :
    • Descripción: Inicializa un nuevo proyecto PAELLADOC, creando la estructura necesaria y el archivo de memoria inicial.
    • Argumentos: base_path (str), documentation_language (str, p. ej., "es-ES"), interaction_language (str, p. ej., "en-US"), new_project_name (str).
    • Devuelve: Diccionario que confirma el estado de creación del proyecto, el nombre y la ruta.
  • paella_list :
    • Descripción: Enumera los nombres de todos los proyectos PAELLADOC existentes que se encuentran en la base de datos de memoria.
    • Argumentos: Ninguno.
    • Devuelve: Diccionario que contiene una lista de nombres de proyectos ( projects ).
  • paella_select :
    • Descripción: Selecciona un proyecto PAELLADOC existente para trabajar (carga su memoria).
    • Argumentos: project_name (str).
    • Devuelve: Diccionario que confirma la selección del proyecto y su ruta base.
  • core_continue :
    • Descripción: Continúa trabajando en un proyecto previamente seleccionado, cargando su memoria y sugiriendo próximos pasos (implementación básica).
    • Argumentos: project_name (str).
    • Devuelve: Diccionario con el estado del proyecto y el siguiente paso sugerido.
  • core_help :
    • Descripción: Proporciona información de ayuda sobre los comandos disponibles (implementación básica de stub).
    • Argumentos: Ninguno (futuro: comando específico).
    • Devuelve: Mensaje de éxito del marcador de posición.
  • core_list_projects :
    • Descripción: (Probablemente redundante con paella_list ) Enumera los nombres de los proyectos PAELLADOC existentes.
    • Argumentos: db_path (str, opcional, para prueba).
    • Devuelve: Diccionario que contiene una lista de nombres de proyectos ( projects ).
  • core_verification :
    • Descripción: Verifica la calidad y la integridad de la documentación (implementación básica de stub).
    • Argumentos: Ninguno.
    • Devuelve: Mensaje de éxito del marcador de posición.

🗺️ Aspectos destacados de la hoja de ruta futura

Basándose en la Hoja de Ruta Unificada , las futuras versiones pretenden incluir:

  • Flujos completos de generación de documentación interactiva ( GENERATE-DOC ).
  • Análisis de código y generación de contexto ( GENERATE_CONTEXT ).
  • Generación automática de código a partir de la documentación ( code_generation ).
  • Gestión de estilos de codificación y flujos de trabajo de Git ( styles.coding_styles , styles.git_workflows ).
  • Comandos de memoria del proyecto para decisiones, problemas, logros ( DECISION , ISSUE , ACHIEVEMENT ).
  • Y mucho más, alineándose con la taxonomía MECE y las capacidades A2A.

Estructura de la documentación del MECE

Nuestra taxonomía AI-First garantiza la preservación completa del contexto:

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor de Protocolo de Contexto de Modelo (MCP) que implementa los principios del marco de desarrollo AI-First, lo que permite a los LLM interactuar con herramientas y flujos de trabajo de documentación de contexto primero para preservar el conocimiento y la intención junto con el código.

  1. 🎯 PAELLADOC y el Protocolo de Contexto Modelo (MCP)
    1. 🎯 La filosofía de la IA primero
      1. 🧠 Los cinco principios en acción
        1. El contexto como creación primaria
        2. Arquitectura basada en intenciones
        3. El conocimiento como entidad viva
        4. Conciencia colaborativa humano-IA
        5. Arquitectura de decisión contextual
      2. 🚀 Instalación e Integración
        1. Instalación mediante herrería
        2. Crear y activar el entorno dedicado
        3. Instalar PAELLADOC en el entorno activado
        4. Configurar la ruta de la base de datos
        5. Configure su LLM (configuración de MCP)
        6. Deja que el LLM te guíe
      3. 🚦 Estabilidad de la versión
        1. 🚀 Inicio rápido
          1. ⚙️ Comandos disponibles (v0.3.7)
            1. 🗺️ Aspectos destacados de la hoja de ruta futura
              1. Estructura de la documentación del MECE

                Related MCP Servers

                • A
                  security
                  A
                  license
                  A
                  quality
                  A Model Context Protocol server that enables LLMs to safely execute make targets from a Makefile, allowing AI assistants to run tests, format code, and automate various development tasks through natural language interaction.
                  Last updated -
                  1
                  2
                  Python
                  MIT License
                • A
                  security
                  A
                  license
                  A
                  quality
                  A Model Context Protocol (MCP) server that exposes the official Notion SDK, allowing AI models to interact with Notion workspaces.
                  Last updated -
                  17
                  77
                  7
                  TypeScript
                  Apache 2.0
                  • Apple
                  • Linux
                • -
                  security
                  F
                  license
                  -
                  quality
                  A generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.
                  Last updated -
                  TypeScript
                • -
                  security
                  -
                  license
                  -
                  quality
                  A specialized server that helps users create new Model Context Protocol (MCP) servers by providing tools and templates for scaffolding projects with various capabilities.
                  Last updated -
                  1
                  TypeScript

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/jlcases/paelladoc'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server