Integrations
Used for environment variable management to configure the PromptLab server with API keys and other settings
Enables version control and contribution workflows for the PromptLab project
Hosts the repository and provides collaboration features for contributing to PromptLab
PromptLab: Motor de mejora de consultas con IA
PromptLab transforma las consultas básicas del usuario en indicaciones optimizadas para sistemas de IA. Detecta automáticamente el tipo de contenido (ensayos, correos electrónicos, explicaciones técnicas, escritura creativa), aplica plantillas personalizadas y valida que las indicaciones mejoradas mantengan la intención original.
🔍 Descripción general
PromptLab se basa en una arquitectura modular con un sistema de plantillas basado en YAML que permite a cualquier persona crear y gestionar plantillas de indicaciones sin necesidad de conocimientos de programación. El sistema genera respuestas de IA de mayor calidad mediante entradas mejor estructuradas.
🏗️ Arquitectura
PromptLab consta de tres componentes principales:
- Sistema de plantillas (
prompt_templates.yaml
): plantillas estructuradas para diferentes tipos de contenido - Servidor MCP (
promptlab_server.py
): proporciona plantillas a través de un protocolo estandarizado con LangGraph Workflow - Cliente de procesamiento (
promptlab_client.py
): cliente ligero que procesa las consultas del usuario
Proceso de flujo de trabajo
- Entrada de consulta : el usuario envía una consulta en lenguaje natural
- Clasificación : El sistema determina el tipo de contenido (ensayo, correo electrónico, etc.)
- Extracción de parámetros : se identifican los parámetros clave (tema, audiencia, etc.)
- Aplicación de plantilla : se recupera y se completa la plantilla adecuada
- Validación : el mensaje mejorado se compara con la intención original
- Ajuste : Cualquier ajuste necesario se realiza automáticamente.
- Generación de respuesta : el mensaje optimizado produce una respuesta de alta calidad
📋 Características
- Detección del tipo de contenido : clasifica automáticamente las consultas de los usuarios en solicitudes de ensayo, correo electrónico, redacción técnica o creativa.
- Extracción de parámetros : extrae de forma inteligente parámetros clave como temas, destinatarios y niveles de audiencia.
- Biblioteca de plantillas : plantillas preconfiguradas para tipos de contenido comunes con orientación estructurada
- Sistema de validación : garantiza que las indicaciones mejoradas mantengan la intención original del usuario
- Bucle de retroalimentación : ajusta las indicaciones cuando la validación identifica desajustes
- Diseño modular : el servidor MCP se puede conectar a cualquier sistema LLM
- Gestión no técnica : las plantillas se pueden actualizar sin conocimientos de codificación
🚀 Primeros pasos
Prerrequisitos
- Python 3.8+
- Dependencias:
mcp[cli]
langchain-openai
langgraph>=0.0.20
python-dotenv
pyyaml
Instalación
Uso
- Comience ejecutando el servidor:
- Ejecute el cliente con su consulta:
- El sistema emitirá:
- Consulta original
- Tipo de contenido clasificado
- Aviso mejorado
- Resultado de la validación
- Respuesta final
📝 Sistema de plantillas
Las plantillas se definen en prompt_templates.yaml
utilizando un formato estructurado:
Agregar nuevas plantillas
- Abrir
prompt_templates.yaml
- Agregar una nueva plantilla siguiendo el formato existente
- Definir parámetros y transformaciones
- Definir una herramienta en el lado del servidor y cargar la plantilla
- El servidor cargará automáticamente la nueva plantilla al reiniciarse.
🛠️ Configuración avanzada
Variables de entorno
TEMPLATES_FILE
- Ruta al archivo YAML de plantillas (predeterminado:prompt_templates.yaml
)OPENAI_API_KEY
: Su clave API de OpenAI para acceder a LLMMODEL_NAME
: el modelo OpenAI que se utilizará (predeterminado:gpt-3.5-turbo
)PERSONA_SERVER_SCRIPT
- Ruta al script del servidor (predeterminado:promptlab_server.py
)
Transformaciones personalizadas
Las plantillas pueden incluir transformaciones que ajustan dinámicamente los parámetros:
📊 Ejemplos de salidas
Consulta de entrada
"Escribe algo sobre energías renovables para mi profesor"
Aviso mejorado
📄 Licencia
Licencia MIT: consulte el archivo LICENCIA para obtener más detalles
🤝 Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
- Bifurcar el repositorio
- Crea tu rama de funciones (
git checkout -b feature/amazing-feature
) - Confirme sus cambios (
git commit -m 'Add some amazing feature'
) - Empujar a la rama (
git push origin feature/amazing-feature
) - Abrir una solicitud de extracción
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Proporciona plantillas de indicaciones a través de un protocolo estandarizado para transformar consultas básicas de usuario en indicaciones optimizadas para sistemas de IA.