Servidor MCP de Crawlab
Este es un servidor de Protocolo de Contexto de Modelo (MCP) para Crawlab, que permite que las aplicaciones de IA interactúen con la funcionalidad de Crawlab.
Descripción general
El servidor MCP proporciona una forma estandarizada para que las aplicaciones de IA accedan a las funciones de Crawlab, que incluyen:
- Gestión de arañas (crear, leer, actualizar, eliminar)
- Gestión de tareas (ejecutar, cancelar, reiniciar)
- Gestión de archivos (lectura, escritura)
- Acceso a recursos (arañas, tareas)
Arquitectura
La arquitectura servidor/cliente de MCP facilita la comunicación entre las aplicaciones de IA y Crawlab:
Flujo de comunicación
- Consulta de usuario : el usuario envía una consulta en lenguaje natural al cliente MCP
- Procesamiento LLM : el cliente reenvía la consulta a un proveedor LLM (por ejemplo, Claude, OpenAI)
- Selección de herramientas : el LLM identifica las herramientas necesarias y genera llamadas de herramientas
- Ejecución de herramientas : el cliente envía llamadas de herramientas al servidor MCP
- Interacción API : El servidor ejecuta las solicitudes API de Crawlab correspondientes
- Generación de respuesta : los resultados fluyen de regreso a través del servidor al cliente y al LLM.
- Respuesta del usuario : el cliente entrega la respuesta final legible por humanos al usuario.
Instalación y uso
Opción 1: Instalar como un paquete de Python
Puede instalar el servidor MCP como un paquete Python, que proporciona una CLI conveniente:
Después de la instalación, puede utilizar la CLI:
Opción 2: Ejecución local
Prerrequisitos
- Python 3.8+
- Instancia de Crawlab ejecutándose y accesible
- Token API de Crawlab
Configuración
- Copie el archivo
.env.example
a.env
: - Edite el archivo
.env
con los detalles de su API de Crawlab:
Ejecutando localmente
- Instalar dependencias:
- Ejecutar el servidor:
Ejecutando con Docker
- Construya la imagen de Docker:
- Ejecute el contenedor:
Integración con Docker Compose
Para agregar el servidor MCP a su configuración existente de Docker Compose de Crawlab, agregue el siguiente servicio a su docker-compose.yml
:
Uso con aplicaciones de IA
El servidor MCP permite que las aplicaciones de IA interactúen con Crawlab mediante lenguaje natural. Siguiendo el diagrama de arquitectura anterior, se explica cómo usar el sistema MCP:
Configuración de la conexión
- Inicie el servidor MCP : asegúrese de que su servidor MCP esté en ejecución y sea accesible
- Configurar el cliente de IA : Conecte su aplicación de IA al servidor MCP
Ejemplo: Uso con Claude Desktop
- Abra Claude Desktop
- Vaya a Configuración > Servidores MCP
- Agregue un nuevo servidor con la URL de su servidor MCP (por ejemplo,
http://localhost:8000
) - En una conversación con Claude, ahora puedes usar la funcionalidad de Crawlab describiendo lo que quieres hacer en lenguaje natural.
Ejemplos de interacciones
Basándonos en nuestra arquitectura, aquí se muestran ejemplos de interacciones con el sistema:
Crea una araña:
Ejecutar una tarea:
Comandos disponibles
Puede interactuar con el sistema utilizando comandos de lenguaje natural como:
- "Enumera todas mis arañas"
- "Crea una nueva araña con estas especificaciones..."
- "Muéstrame el código de la araña llamada X"
- "Actualice el archivo main.py en spider X con este código..."
- "Ejecuta Spider X y avísame cuando esté completo"
- "Muéstrame los resultados de la última ejecución de Spider X"
Recursos y herramientas disponibles
Estas son las herramientas subyacentes que potencian las interacciones del lenguaje natural:
Recursos
spiders
: Lista de todas las arañastasks
: enumerar todas las tareas
Herramientas
Gestión de arañas
get_spider
: Obtener detalles de una araña específicacreate_spider
: Crea una nueva arañaupdate_spider
: Actualizar una araña existentedelete_spider
: Eliminar una araña
Gestión de tareas
get_task
: Obtener detalles de una tarea específicarun_spider
: Ejecutar una arañacancel_task
: Cancelar una tarea en ejecuciónrestart_task
: Reiniciar una tareaget_task_logs
: Obtener registros de una tarea
Gestión de archivos
get_spider_files
: Lista los archivos de una arañaget_spider_file
: Obtener el contenido de un archivo específicosave_spider_file
: Guardar contenido en un archivo
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Un servidor de protocolo de contexto de modelo que permite que las aplicaciones de IA interactúen con la funcionalidad de Crawlab a través del lenguaje natural, lo que permite la gestión de arañas, la ejecución de tareas y las operaciones de archivos.
- Descripción general
- Arquitectura
- Instalación y uso
- Integración con Docker Compose
- Uso con aplicaciones de IA
- Recursos y herramientas disponibles
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityA production-ready Model Context Protocol server that enables language models to leverage AI-powered web scraping capabilities, offering tools for transforming webpages to markdown, extracting structured data, and executing AI-powered web searches.Last updated -334PythonMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables web search, scraping, crawling, and content extraction through multiple engines including SearXNG, Firecrawl, and Tavily.Last updated -1,22848TypeScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables AI assistants to perform advanced web scraping, crawling, searching, and data extraction through the Firecrawl API.Last updated -19,824MIT License
- AsecurityFlicenseAqualityA Model Context Protocol server that enables AI assistants to perform real-time web searches, retrieving up-to-date information from the internet via a Crawler API.Last updated -188314JavaScript