Skip to main content
Glama

PAELLADOC

by jlcases

🧠 PAELLADOC: El marco de desarrollo que prioriza la IA

Visita el sitio web oficial

EstadoFilosofíaMCPActualizado

Versión 0.3.7 : Lanzamiento de una revisión que restaura las herramientas CRUD principales del proyecto, omitidas inadvertidamente en la compilación v0.3.6. ¡Consulta el registro de cambios para más detalles!

En la era de la IA, el contexto no es un complemento del código: es la creación primaria.

PAELLADOC es un marco de desarrollo AI-First que implementa los 5 principios filosóficos del desarrollo AI-First , transformando la forma en que creamos software en la era de la IA.

🎯 PAELLADOC y el Protocolo de Contexto Modelo (MCP)

PAELLADOC implementa el Protocolo de Contexto de Modelo (MCP) de Anthropic ( ver noticias de Anthropic ). Este protocolo proporciona una forma estructurada para que los Modelos de Lenguaje Grandes (LLM) interactúen con herramientas y contexto externos, lo que permite capacidades más sofisticadas.

Al implementar MCP, PAELLADOC permite a los LLM aprovechar sus herramientas y flujos de trabajo de desarrollo específicos de IA-First directamente a través de este estándar. Este enfoque facilita funcionalidades similares al uso de herramientas o la llamada a funciones, presentes en otras plataformas, pero utiliza específicamente el estándar MCP antrópico para la interacción.

🎯 La filosofía de la IA primero

El desarrollo tradicional trata la documentación como algo secundario. El desarrollo basado en IA invierte este paradigma:

  • El contexto se convierte en el artefacto principal
  • El código se convierte en su manifestación
  • El conocimiento evoluciona junto con los sistemas
  • Las decisiones conservan su contexto filosófico
  • La colaboración entre humanos e IA es fluida

🧠 Los cinco principios en acción

1. El contexto como creación primaria

# Traditional Way write_code() -> document() # PAELLADOC Way create_context() -> manifest_as_code()
  • Cada artefacto tiene un UUID para una trazabilidad perfecta
  • El contexto se versiona junto con el código
  • Los gráficos de conocimiento capturan relaciones
  • La intención se conserva en cada paso.

2. Arquitectura basada en intenciones

  • La arquitectura surge de la intención, no de la implementación
  • Cada decisión captura su contexto filosófico
  • Los sistemas se adaptan a la evolución del propósito

3. El conocimiento como entidad viva

# Knowledge evolves with your system paella continue my-project
  • La memoria del proyecto rastrea la evolución de la comprensión
  • La documentación se actualiza automáticamente con los cambios.
  • El contexto se mantiene fresco y relevante
  • Los gráficos de conocimiento muestran relaciones

4. Conciencia colaborativa humano-IA

# Not just code generation, but true collaboration with paelladoc.context() as ctx: ctx.understand_intent() ctx.propose_solutions() ctx.implement_with_human()
  • Conversaciones en lenguaje natural
  • Preservación de la intención
  • Conciencia contextual
  • Colaboración fluida

5. Arquitectura de decisión contextual

decision: id: uuid-123 intent: "Why we chose this path" context: "What we knew at the time" alternatives: "What we considered" implications: "Future impact"
  • Cada decisión conserva su contexto
  • Los futuros desarrolladores entienden el "por qué"
  • Los cambios respetan el contexto histórico
  • La intención sigue siendo clara

🚀 Instalación e Integración

Demostración de instalación

PAELLADOC es una aplicación Python y debe instalarse en su propio entorno virtual Python . Esto mantiene sus dependencias separadas y evita conflictos. Necesitará un entorno PAELLADOC, independientemente de cuántos proyectos diferentes (Python, JS, Ruby, etc.) planee documentar.

(Requiere Python 3.12 o posterior)

Instalación mediante herrería

Para instalar PAELLADOC para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @jlcases/paelladoc --client claude

1. Crear y activar el entorno dedicado

Primero, elija una ubicación permanente para este entorno. Su directorio personal suele ser una buena opción.

# Navigate to where you want to store the environment (e.g., your home directory) # cd ~ # Uncomment and run if you want it in your home directory # Create the virtual environment (using python3.12 or your installed 3.12+ version) # We'll name the folder '.paelladoc_venv' (starting with a dot makes it hidden) python3.12 -m venv .paelladoc_venv # Activate the environment # (The command depends on your shell. Use ONE of the following) # For Bash/Zsh: source .paelladoc_venv/bin/activate # For Fish: # source .paelladoc_venv/bin/activate.fish # For Powershell (Windows): # .\.paelladoc_venv\Scripts\activate.ps1

(Deberías ver (.paelladoc_venv) al comienzo de tu terminal ahora)

2. Instalar PAELLADOC en el entorno activado

# Make sure your (.paelladoc_venv) prompt is visible before running pip pip install paelladoc

3. Configurar la ruta de la base de datos

PAELLADOC necesita saber dónde almacenar su base de datos de memoria ( memory.db ). Hay dos maneras principales de configurarlo:

Opción 1: Variable de entorno (menos confiable para la integración de LLM)

Puedes configurar la variable de entorno PAELLADOC_DB_PATH . Esto funciona bien si ejecutas PAELLADOC directamente desde la terminal.

# Example: Set the variable in your current terminal session export PAELLADOC_DB_PATH="$HOME/.paelladoc/memory.db" # Optional: Add the export line to your shell's startup file # (.bashrc, .zshrc, etc.) for it to persist across sessions.

Importante: Cuando PAELLADOC se ejecuta con una herramienta LLM (como Cursor mediante MCP), es posible que no herede las variables de entorno configuradas de esta manera. Por lo tanto, este método es menos fiable para la integración con LLM.

Opción 2: Configuración de MCP (recomendada para la integración de LLM)

La forma más fiable de garantizar que su herramienta LLM utilice la ruta de base de datos correcta es configurarla directamente en el archivo JSON MCP de la herramienta ( .cursor/mcp.json para Cursor). Esto inyecta la variable directamente en el proceso del servidor iniciado por LLM.

Vea los ejemplos en la siguiente sección.

4. Configure su LLM (configuración de MCP)

Ahora, dígale a su herramienta LLM (como Cursor) cómo encontrar y ejecutar PAELLADOC.

Información clave necesaria:

  • Ruta completa al ejecutable de Python: ruta absoluta a python dentro de su .paelladoc_venv .
Ejemplo de IDE de cursor

Edite su archivo .cursor/mcp.json . Añada una configuración de servidor para PAELLADOC. A continuación, un ejemplo típico:

{ "mcpServers": { "Paelladoc": { "command": "/absolute/path/to/.paelladoc_venv/bin/python", "args": [ "-m", "paelladoc.ports.input.mcp_server_adapter", "--stdio" ], "cwd": "/path/to/your/project/directory", // Optional: Set working directory "env": { // Recommended for local dev: Use a DB in your project folder "PAELLADOC_DB_PATH": "/path/to/your/project/directory/paelladoc_memory.db", // Optional: Add src to PYTHONPATH if needed for local development imports "PYTHONPATH": "/path/to/your/project/directory/src:/path/to/your/project/directory" }, "disabled": false } }, "mcp.timeout": 120000 }

Notas importantes:

  • La ruta commanddebe ser la ruta absoluta al ejecutable de Python dentro de su archivo .paelladoc_venv (creado en el paso 1). Reemplace /absolute/path/to/ con la ruta real en su sistema (por ejemplo, /Users/your_username/ ).
  • Ruta de la base de datos:
    • De forma predeterminada (si PAELLADOC_DB_PATHno está configurado en env ), PAELLADOC usa ~/.paelladoc/memory.db .
    • Para el desarrollo local, donde podría necesitar la base de datos junto con el código de su proyecto, configurar PAELLADOC_DB_PATH en la sección env (como se muestra en el ejemplo) es el enfoque recomendado y más confiable . Reemplace /path/to/your/project/directory/ con la ruta real de su proyecto.
  • Directorio de trabajo ( cwd ): configurarlo en el directorio de su proyecto puede ser útil, pero a menudo es opcional.
  • PYTHONPATH: Configurar esto en env puede ser necesario si está realizando un desarrollo local en PAELLADOC y necesita que el servidor encuentre su código fuente.

4. Deja que el LLM te guíe

Una vez conectado, su LLM tendrá acceso a todos los comandos de PAELLADOC:

  • PAELLA : Iniciar nuevos proyectos de documentación
  • CONTINUE : Continuar la documentación existente
  • VERIFY : Verificar la cobertura de la documentación
  • GENERATE : Generar documentación o código

El LLM se ocupará de toda la complejidad: ¡usted sólo tendrá que expresar su intención en lenguaje natural!

🚦 Estabilidad de la versión

  • Versión de PyPI (estable): Las versiones publicadas en PyPI ( pip install paelladoc ) son versiones estables recomendadas para uso general.
  • Repositorio de GitHub (Desarrollo): La rama main (y otras ramas) del repositorio de GitHub contiene el código de desarrollo más reciente. Esta versión puede incluir nuevas funciones o cambios que aún no se han probado completamente y deben considerarse inestables. Usa esta versión si quieres probar funciones de vanguardia o contribuir al desarrollo.

Nota sobre el desarrollo actual: El desarrollo activo se centra actualmente en la entrega interna de un MVP con nuevas y significativas capacidades. Si bien la versión de PyPI se mantiene estable, se esperan avances importantes en futuras versiones a medida que trabajamos para lograr este objetivo en un entorno más privado por ahora.

🚀 Inicio rápido

  1. Asegúrese de que PAELLADOC esté instalado ( pip install paelladoc ) y configurado en la configuración de herramientas/MCP de su LLM (vea los ejemplos anteriores).
  2. Comience a interactuar con PAELLADOC a través de su LLM ejecutando un comando. El comando principal para iniciar un nuevo proyecto o listar los existentes es PAELLA .
    • En Cursor o una interfaz de chat similar, simplemente escriba:
      PAELLA
    • Alternativamente, puede instruir al LLM de manera más explícita:
      Use PAELLADOC to start documenting a new project.
      Tell PAELLADOC I want to create documentation.
  3. Siga el ejemplo del LLM: PAELLADOC (a través del LLM) lo guiará a través del proceso de forma interactiva y le solicitará detalles del proyecto, opciones de plantillas, etc.

⚙️ Comandos disponibles (v0.3.7)

Esta versión proporciona los siguientes comandos principales, expuestos a través de MCP para la interacción con su LLM:

  • ping :
    • Descripción: Comprobación básica del estado del servidor para confirmar que está funcionando y responde.
    • Argumentos: Ninguno (o random_string opcional).
    • Devuelve: { "status": "ok", "message": "pong" } .
  • paella_init :
    • Descripción: Inicializa un nuevo proyecto PAELLADOC, creando la estructura necesaria y el archivo de memoria inicial.
    • Argumentos: base_path (str), documentation_language (str, p. ej., "es-ES"), interaction_language (str, p. ej., "en-US"), new_project_name (str).
    • Devuelve: Diccionario que confirma el estado de creación del proyecto, el nombre y la ruta.
  • paella_list :
    • Descripción: Enumera los nombres de todos los proyectos PAELLADOC existentes que se encuentran en la base de datos de memoria.
    • Argumentos: Ninguno.
    • Devuelve: Diccionario que contiene una lista de nombres de proyectos ( projects ).
  • paella_select :
    • Descripción: Selecciona un proyecto PAELLADOC existente para trabajar (carga su memoria).
    • Argumentos: project_name (str).
    • Devuelve: Diccionario que confirma la selección del proyecto y su ruta base.
  • core_continue :
    • Descripción: Continúa trabajando en un proyecto previamente seleccionado, cargando su memoria y sugiriendo próximos pasos (implementación básica).
    • Argumentos: project_name (str).
    • Devuelve: Diccionario con el estado del proyecto y el siguiente paso sugerido.
  • core_help :
    • Descripción: Proporciona información de ayuda sobre los comandos disponibles (implementación básica de stub).
    • Argumentos: Ninguno (futuro: comando específico).
    • Devuelve: Mensaje de éxito del marcador de posición.
  • core_list_projects :
    • Descripción: (Probablemente redundante con paella_list ) Enumera los nombres de los proyectos PAELLADOC existentes.
    • Argumentos: db_path (str, opcional, para prueba).
    • Devuelve: Diccionario que contiene una lista de nombres de proyectos ( projects ).
  • core_verification :
    • Descripción: Verifica la calidad y la integridad de la documentación (implementación básica de stub).
    • Argumentos: Ninguno.
    • Devuelve: Mensaje de éxito del marcador de posición.

🗺️ Aspectos destacados de la hoja de ruta futura

Basándose en la Hoja de Ruta Unificada , las futuras versiones pretenden incluir:

  • Flujos completos de generación de documentación interactiva ( GENERATE-DOC ).
  • Análisis de código y generación de contexto ( GENERATE_CONTEXT ).
  • Generación automática de código a partir de la documentación ( code_generation ).
  • Gestión de estilos de codificación y flujos de trabajo de Git ( styles.coding_styles , styles.git_workflows ).
  • Comandos de memoria del proyecto para decisiones, problemas, logros ( DECISION , ISSUE , ACHIEVEMENT ).
  • Y mucho más, alineándose con la taxonomía MECE y las capacidades A2A.

Estructura de la documentación del MECE

Nuestra taxonomía AI-First garantiza la preservación completa del contexto:

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    A Model Context Protocol server implementation that enables connection between OpenAI APIs and MCP clients for coding assistance with features like CLI interaction, web API integration, and tool-based architecture.
    Last updated -
    33
    Python
    • Linux
    • Apple
  • -
    security
    F
    license
    -
    quality
    A ready-to-use starter implementation of the Model Context Protocol (MCP) server that enables applications to provide standardized context for LLMs with sample resources, tools, and prompts.
    Last updated -
    TypeScript
  • A
    security
    F
    license
    A
    quality
    An all-in-one Model Context Protocol (MCP) server that connects your coding AI to numerous databases, data warehouses, data pipelines, and cloud services, streamlining development workflow through seamless integrations.
    Last updated -
    2
    Python
    • Apple
    • Linux
  • A
    security
    A
    license
    A
    quality
    A Model Context Protocol (MCP) server that provides daily-refreshed documentation for 9000+ libraries directly in AI code editors, helping developers avoid outdated references and hallucinations.
    Last updated -
    1
    738
    92
    JavaScript
    MIT License
    • Linux
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/jlcases/paelladoc'

If you have feedback or need assistance with the MCP directory API, please join our Discord server