🧠 PAELLADOC: El marco de desarrollo que prioriza la IA
Versión 0.3.7 : Lanzamiento de una revisión que restaura las herramientas CRUD principales del proyecto, omitidas inadvertidamente en la compilación v0.3.6. ¡Consulta el registro de cambios para más detalles!
En la era de la IA, el contexto no es un complemento del código: es la creación primaria.
PAELLADOC es un marco de desarrollo AI-First que implementa los 5 principios filosóficos del desarrollo AI-First , transformando la forma en que creamos software en la era de la IA.
🎯 PAELLADOC y el Protocolo de Contexto Modelo (MCP)
PAELLADOC implementa el Protocolo de Contexto de Modelo (MCP) de Anthropic ( ver noticias de Anthropic ). Este protocolo proporciona una forma estructurada para que los Modelos de Lenguaje Grandes (LLM) interactúen con herramientas y contexto externos, lo que permite capacidades más sofisticadas.
Al implementar MCP, PAELLADOC permite a los LLM aprovechar sus herramientas y flujos de trabajo de desarrollo específicos de IA-First directamente a través de este estándar. Este enfoque facilita funcionalidades similares al uso de herramientas o la llamada a funciones, presentes en otras plataformas, pero utiliza específicamente el estándar MCP antrópico para la interacción.
🎯 La filosofía de la IA primero
El desarrollo tradicional trata la documentación como algo secundario. El desarrollo basado en IA invierte este paradigma:
- El contexto se convierte en el artefacto principal
- El código se convierte en su manifestación
- El conocimiento evoluciona junto con los sistemas
- Las decisiones conservan su contexto filosófico
- La colaboración entre humanos e IA es fluida
🧠 Los cinco principios en acción
1. El contexto como creación primaria
- Cada artefacto tiene un UUID para una trazabilidad perfecta
- El contexto se versiona junto con el código
- Los gráficos de conocimiento capturan relaciones
- La intención se conserva en cada paso.
2. Arquitectura basada en intenciones
- La arquitectura surge de la intención, no de la implementación
- Cada decisión captura su contexto filosófico
- Los sistemas se adaptan a la evolución del propósito
3. El conocimiento como entidad viva
- La memoria del proyecto rastrea la evolución de la comprensión
- La documentación se actualiza automáticamente con los cambios.
- El contexto se mantiene fresco y relevante
- Los gráficos de conocimiento muestran relaciones
4. Conciencia colaborativa humano-IA
- Conversaciones en lenguaje natural
- Preservación de la intención
- Conciencia contextual
- Colaboración fluida
5. Arquitectura de decisión contextual
- Cada decisión conserva su contexto
- Los futuros desarrolladores entienden el "por qué"
- Los cambios respetan el contexto histórico
- La intención sigue siendo clara
🚀 Instalación e Integración
PAELLADOC es una aplicación Python y debe instalarse en su propio entorno virtual Python . Esto mantiene sus dependencias separadas y evita conflictos. Necesitará un entorno PAELLADOC, independientemente de cuántos proyectos diferentes (Python, JS, Ruby, etc.) planee documentar.
(Requiere Python 3.12 o posterior)
Instalación mediante herrería
Para instalar PAELLADOC para Claude Desktop automáticamente a través de Smithery :
1. Crear y activar el entorno dedicado
Primero, elija una ubicación permanente para este entorno. Su directorio personal suele ser una buena opción.
(Deberías ver (.paelladoc_venv)
al comienzo de tu terminal ahora)
2. Instalar PAELLADOC en el entorno activado
3. Configurar la ruta de la base de datos
PAELLADOC necesita saber dónde almacenar su base de datos de memoria ( memory.db
). Hay dos maneras principales de configurarlo:
Opción 1: Variable de entorno (menos confiable para la integración de LLM)
Puedes configurar la variable de entorno PAELLADOC_DB_PATH
. Esto funciona bien si ejecutas PAELLADOC directamente desde la terminal.
Importante: Cuando PAELLADOC se ejecuta con una herramienta LLM (como Cursor mediante MCP), es posible que no herede las variables de entorno configuradas de esta manera. Por lo tanto, este método es menos fiable para la integración con LLM.
Opción 2: Configuración de MCP (recomendada para la integración de LLM)
La forma más fiable de garantizar que su herramienta LLM utilice la ruta de base de datos correcta es configurarla directamente en el archivo JSON MCP de la herramienta ( .cursor/mcp.json
para Cursor). Esto inyecta la variable directamente en el proceso del servidor iniciado por LLM.
Vea los ejemplos en la siguiente sección.
4. Configure su LLM (configuración de MCP)
Ahora, dígale a su herramienta LLM (como Cursor) cómo encontrar y ejecutar PAELLADOC.
Información clave necesaria:
- Ruta completa al ejecutable de Python: ruta absoluta a
python
dentro de su.paelladoc_venv
.
Ejemplo de IDE de cursor
Edite su archivo .cursor/mcp.json
. Añada una configuración de servidor para PAELLADOC. A continuación, un ejemplo típico:
Notas importantes:
- La ruta
command
debe ser la ruta absoluta al ejecutable de Python dentro de su archivo.paelladoc_venv
(creado en el paso 1). Reemplace/absolute/path/to/
con la ruta real en su sistema (por ejemplo,/Users/your_username/
). - Ruta de la base de datos:
- De forma predeterminada (si
PAELLADOC_DB_PATH
no está configurado enenv
), PAELLADOC usa~/.paelladoc/memory.db
. - Para el desarrollo local, donde podría necesitar la base de datos junto con el código de su proyecto, configurar
PAELLADOC_DB_PATH
en la secciónenv
(como se muestra en el ejemplo) es el enfoque recomendado y más confiable . Reemplace/path/to/your/project/directory/
con la ruta real de su proyecto.
- De forma predeterminada (si
- Directorio de trabajo (
cwd
): configurarlo en el directorio de su proyecto puede ser útil, pero a menudo es opcional. - PYTHONPATH: Configurar esto en
env
puede ser necesario si está realizando un desarrollo local en PAELLADOC y necesita que el servidor encuentre su código fuente.
4. Deja que el LLM te guíe
Una vez conectado, su LLM tendrá acceso a todos los comandos de PAELLADOC:
PAELLA
: Iniciar nuevos proyectos de documentaciónCONTINUE
: Continuar la documentación existenteVERIFY
: Verificar la cobertura de la documentaciónGENERATE
: Generar documentación o código
El LLM se ocupará de toda la complejidad: ¡usted sólo tendrá que expresar su intención en lenguaje natural!
🚦 Estabilidad de la versión
- Versión de PyPI (estable): Las versiones publicadas en PyPI (
pip install paelladoc
) son versiones estables recomendadas para uso general. - Repositorio de GitHub (Desarrollo): La rama
main
(y otras ramas) del repositorio de GitHub contiene el código de desarrollo más reciente. Esta versión puede incluir nuevas funciones o cambios que aún no se han probado completamente y deben considerarse inestables. Usa esta versión si quieres probar funciones de vanguardia o contribuir al desarrollo.
Nota sobre el desarrollo actual: El desarrollo activo se centra actualmente en la entrega interna de un MVP con nuevas y significativas capacidades. Si bien la versión de PyPI se mantiene estable, se esperan avances importantes en futuras versiones a medida que trabajamos para lograr este objetivo en un entorno más privado por ahora.
🚀 Inicio rápido
- Asegúrese de que PAELLADOC esté instalado (
pip install paelladoc
) y configurado en la configuración de herramientas/MCP de su LLM (vea los ejemplos anteriores). - Comience a interactuar con PAELLADOC a través de su LLM ejecutando un comando. El comando principal para iniciar un nuevo proyecto o listar los existentes es
PAELLA
.- En Cursor o una interfaz de chat similar, simplemente escriba:
- Alternativamente, puede instruir al LLM de manera más explícita:
- En Cursor o una interfaz de chat similar, simplemente escriba:
- Siga el ejemplo del LLM: PAELLADOC (a través del LLM) lo guiará a través del proceso de forma interactiva y le solicitará detalles del proyecto, opciones de plantillas, etc.
⚙️ Comandos disponibles (v0.3.7)
Esta versión proporciona los siguientes comandos principales, expuestos a través de MCP para la interacción con su LLM:
ping
:- Descripción: Comprobación básica del estado del servidor para confirmar que está funcionando y responde.
- Argumentos: Ninguno (o
random_string
opcional). - Devuelve:
{ "status": "ok", "message": "pong" }
.
paella_init
:- Descripción: Inicializa un nuevo proyecto PAELLADOC, creando la estructura necesaria y el archivo de memoria inicial.
- Argumentos:
base_path
(str),documentation_language
(str, p. ej., "es-ES"),interaction_language
(str, p. ej., "en-US"),new_project_name
(str). - Devuelve: Diccionario que confirma el estado de creación del proyecto, el nombre y la ruta.
paella_list
:- Descripción: Enumera los nombres de todos los proyectos PAELLADOC existentes que se encuentran en la base de datos de memoria.
- Argumentos: Ninguno.
- Devuelve: Diccionario que contiene una lista de nombres de proyectos (
projects
).
paella_select
:- Descripción: Selecciona un proyecto PAELLADOC existente para trabajar (carga su memoria).
- Argumentos:
project_name
(str). - Devuelve: Diccionario que confirma la selección del proyecto y su ruta base.
core_continue
:- Descripción: Continúa trabajando en un proyecto previamente seleccionado, cargando su memoria y sugiriendo próximos pasos (implementación básica).
- Argumentos:
project_name
(str). - Devuelve: Diccionario con el estado del proyecto y el siguiente paso sugerido.
core_help
:- Descripción: Proporciona información de ayuda sobre los comandos disponibles (implementación básica de stub).
- Argumentos: Ninguno (futuro: comando específico).
- Devuelve: Mensaje de éxito del marcador de posición.
core_list_projects
:- Descripción: (Probablemente redundante con
paella_list
) Enumera los nombres de los proyectos PAELLADOC existentes. - Argumentos:
db_path
(str, opcional, para prueba). - Devuelve: Diccionario que contiene una lista de nombres de proyectos (
projects
).
- Descripción: (Probablemente redundante con
core_verification
:- Descripción: Verifica la calidad y la integridad de la documentación (implementación básica de stub).
- Argumentos: Ninguno.
- Devuelve: Mensaje de éxito del marcador de posición.
🗺️ Aspectos destacados de la hoja de ruta futura
Basándose en la Hoja de Ruta Unificada , las futuras versiones pretenden incluir:
- Flujos completos de generación de documentación interactiva (
GENERATE-DOC
). - Análisis de código y generación de contexto (
GENERATE_CONTEXT
). - Generación automática de código a partir de la documentación (
code_generation
). - Gestión de estilos de codificación y flujos de trabajo de Git (
styles.coding_styles
,styles.git_workflows
). - Comandos de memoria del proyecto para decisiones, problemas, logros (
DECISION
,ISSUE
,ACHIEVEMENT
). - Y mucho más, alineándose con la taxonomía MECE y las capacidades A2A.
Estructura de la documentación del MECE
Nuestra taxonomía AI-First garantiza la preservación completa del contexto:
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Un servidor de Protocolo de Contexto de Modelo (MCP) que implementa los principios del marco de desarrollo AI-First, lo que permite a los LLM interactuar con herramientas y flujos de trabajo de documentación de contexto primero para preservar el conocimiento y la intención junto con el código.
- 🎯 PAELLADOC y el Protocolo de Contexto Modelo (MCP)
- 🎯 La filosofía de la IA primero
- 🧠 Los cinco principios en acción
- 🚀 Instalación e Integración
- 🚦 Estabilidad de la versión
- 🚀 Inicio rápido
- ⚙️ Comandos disponibles (v0.3.7)
- 🗺️ Aspectos destacados de la hoja de ruta futura
- Estructura de la documentación del MECE
Related MCP Servers
- AsecurityAlicenseAqualityA Model Context Protocol server that enables LLMs to safely execute make targets from a Makefile, allowing AI assistants to run tests, format code, and automate various development tasks through natural language interaction.Last updated -12PythonMIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that exposes the official Notion SDK, allowing AI models to interact with Notion workspaces.Last updated -17777TypeScriptApache 2.0
- -securityFlicense-qualityA generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.Last updated -TypeScript
- -security-license-qualityA specialized server that helps users create new Model Context Protocol (MCP) servers by providing tools and templates for scaffolding projects with various capabilities.Last updated -1TypeScript