hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
The MCP server provides integration with Docker, allowing users to run the server in a containerized environment and integrate it with existing Crawlab Docker Compose setups.
The MCP server documentation uses Mermaid for architecture diagrams, illustrating the communication flow between components.
The MCP server integrates with OpenAI as an LLM provider, allowing AI applications to interact with Crawlab through the MCP protocol. The architecture shows OpenAI as one of the supported LLM providers for processing natural language queries.
Servidor MCP de Crawlab
Este es un servidor de Protocolo de Contexto de Modelo (MCP) para Crawlab, que permite que las aplicaciones de IA interactúen con la funcionalidad de Crawlab.
Descripción general
El servidor MCP proporciona una forma estandarizada para que las aplicaciones de IA accedan a las funciones de Crawlab, que incluyen:
- Gestión de arañas (crear, leer, actualizar, eliminar)
- Gestión de tareas (ejecutar, cancelar, reiniciar)
- Gestión de archivos (lectura, escritura)
- Acceso a recursos (arañas, tareas)
Arquitectura
La arquitectura servidor/cliente de MCP facilita la comunicación entre las aplicaciones de IA y Crawlab:
Flujo de comunicación
- Consulta de usuario : el usuario envía una consulta en lenguaje natural al cliente MCP
- Procesamiento LLM : el cliente reenvía la consulta a un proveedor LLM (por ejemplo, Claude, OpenAI)
- Selección de herramientas : el LLM identifica las herramientas necesarias y genera llamadas de herramientas
- Ejecución de herramientas : el cliente envía llamadas de herramientas al servidor MCP
- Interacción API : El servidor ejecuta las solicitudes API de Crawlab correspondientes
- Generación de respuesta : los resultados fluyen de regreso a través del servidor al cliente y al LLM.
- Respuesta del usuario : el cliente entrega la respuesta final legible por humanos al usuario.
Instalación y uso
Opción 1: Instalar como un paquete de Python
Puede instalar el servidor MCP como un paquete Python, que proporciona una CLI conveniente:
Después de la instalación, puede utilizar la CLI:
Opción 2: Ejecución local
Prerrequisitos
- Python 3.8+
- Instancia de Crawlab ejecutándose y accesible
- Token API de Crawlab
Configuración
- Copie el archivo
.env.example
a.env
:Copy - Edite el archivo
.env
con los detalles de su API de Crawlab:Copy
Ejecutando localmente
- Instalar dependencias:Copy
- Ejecutar el servidor:Copy
Ejecutando con Docker
- Construya la imagen de Docker:Copy
- Ejecute el contenedor:Copy
Integración con Docker Compose
Para agregar el servidor MCP a su configuración existente de Docker Compose de Crawlab, agregue el siguiente servicio a su docker-compose.yml
:
Uso con aplicaciones de IA
El servidor MCP permite que las aplicaciones de IA interactúen con Crawlab mediante lenguaje natural. Siguiendo el diagrama de arquitectura anterior, se explica cómo usar el sistema MCP:
Configuración de la conexión
- Inicie el servidor MCP : asegúrese de que su servidor MCP esté en ejecución y sea accesible
- Configurar el cliente de IA : Conecte su aplicación de IA al servidor MCP
Ejemplo: Uso con Claude Desktop
- Abra Claude Desktop
- Vaya a Configuración > Servidores MCP
- Agregue un nuevo servidor con la URL de su servidor MCP (por ejemplo,
http://localhost:8000
) - En una conversación con Claude, ahora puedes usar la funcionalidad de Crawlab describiendo lo que quieres hacer en lenguaje natural.
Ejemplos de interacciones
Basándonos en nuestra arquitectura, aquí se muestran ejemplos de interacciones con el sistema:
Crea una araña:
Ejecutar una tarea:
Comandos disponibles
Puede interactuar con el sistema utilizando comandos de lenguaje natural como:
- "Enumera todas mis arañas"
- "Crea una nueva araña con estas especificaciones..."
- "Muéstrame el código de la araña llamada X"
- "Actualice el archivo main.py en spider X con este código..."
- "Ejecuta Spider X y avísame cuando esté completo"
- "Muéstrame los resultados de la última ejecución de Spider X"
Recursos y herramientas disponibles
Estas son las herramientas subyacentes que potencian las interacciones del lenguaje natural:
Recursos
spiders
: Lista de todas las arañastasks
: enumerar todas las tareas
Herramientas
Gestión de arañas
get_spider
: Obtener detalles de una araña específicacreate_spider
: Crea una nueva arañaupdate_spider
: Actualizar una araña existentedelete_spider
: Eliminar una araña
Gestión de tareas
get_task
: Obtener detalles de una tarea específicarun_spider
: Ejecutar una arañacancel_task
: Cancelar una tarea en ejecuciónrestart_task
: Reiniciar una tareaget_task_logs
: Obtener registros de una tarea
Gestión de archivos
get_spider_files
: Lista los archivos de una arañaget_spider_file
: Obtener el contenido de un archivo específicosave_spider_file
: Guardar contenido en un archivo
This server cannot be installed
Un servidor de protocolo de contexto de modelo que permite que las aplicaciones de IA interactúen con la funcionalidad de Crawlab a través del lenguaje natural, lo que permite la gestión de arañas, la ejecución de tareas y las operaciones de archivos.
- Overview
- Architecture
- Installation and Usage
- Integration with Docker Compose
- Using with AI Applications
- Available Resources and Tools