remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Servidor de escaneo web MCP
Un servidor de Protocolo de Contexto de Modelo (MCP) para el escaneo y análisis de contenido web. Este servidor proporciona herramientas para obtener, analizar y extraer información de páginas web.
Características
- Obtención de páginas : convierte páginas web a Markdown para facilitar su análisis
- Extracción de enlaces : extrae y analiza enlaces de páginas web
- Rastreo de sitios : rastree sitios web de forma recursiva para descubrir contenido
- Comprobación de enlaces : identificar enlaces rotos en páginas web
- Coincidencia de patrones : encuentre URL que coincidan con patrones específicos
- Generación de mapas de sitios : genere mapas de sitios XML para sitios web
Instalación
Instalación mediante herrería
Para instalar Webscan para Claude Desktop automáticamente a través de Smithery :
Instalación manual
Uso
Iniciando el servidor
El servidor se ejecuta en el transporte stdio, lo que lo hace compatible con clientes MCP como Claude Desktop.
Herramientas disponibles
fetch-page
- Obtiene una página web y la convierte a Markdown.
- Parámetros:
url
(obligatorio): URL de la página a buscar.selector
(opcional): selector CSS para orientar contenido específico.
extract-links
- Extrae todos los enlaces de una página web con su texto.
- Parámetros:
url
(obligatorio): URL de la página a analizar.baseUrl
(opcional): URL base para filtrar enlaces.limit
(opcional, predeterminado: 100): número máximo de enlaces a devolver.
crawl-site
- Rastrea recursivamente un sitio web hasta una profundidad específica.
- Parámetros:
url
(obligatorio): URL inicial para rastrear.maxDepth
(opcional, predeterminado: 2): profundidad máxima de rastreo (0-5).
check-links
- Comprueba si hay enlaces rotos en una página.
- Parámetros:
url
(obligatorio): URL para comprobar los enlaces.
find-patterns
- Encuentra URL que coinciden con un patrón específico.
- Parámetros:
url
(obligatorio): URL donde buscar.pattern
(obligatorio): patrón de expresión regular compatible con JavaScript con el que hacer coincidir las URL.
generate-site-map
- Genera un mapa del sitio XML simple mediante rastreo.
- Parámetros:
url
(obligatorio): URL raíz para el rastreo del mapa del sitio.maxDepth
(opcional, predeterminado: 2): profundidad máxima de rastreo para descubrir URL (0-5).limit
(opcional, predeterminado: 1000): número máximo de URL para incluir en el mapa del sitio.
Ejemplo de uso con Claude Desktop
- Configure el servidor en la configuración de Claude Desktop:
- Utilice las herramientas en sus conversaciones:
Desarrollo
Prerrequisitos
- Node.js >= 18
- npm
Estructura del proyecto (posterior a la refactorización)
Edificio
Modo de desarrollo
Manejo de errores
El servidor implementa un manejo integral de errores:
- Parámetros no válidos
- Errores de red
- Errores de análisis de contenido
- Validación de URL
Todos los errores están formateados correctamente según la especificación MCP.
Contribuyendo
- Bifurcar el repositorio
- Crea tu rama de funciones (
git checkout -b feature/amazing-feature
) - Confirme sus cambios (
git commit -m 'Add some amazing feature'
) - Empujar a la rama (
git push origin feature/amazing-feature
) - Abrir una solicitud de extracción
Licencia
Licencia MIT: consulte el archivo de LICENCIA para obtener más detalles
You must be authenticated.
Permite el escaneo y análisis de contenido web mediante la obtención, el análisis y la extracción de información de páginas web utilizando herramientas como obtención de páginas, extracción de enlaces, rastreo de sitios y más.
- Features
- Installation
- Usage
- Example Usage with Claude Desktop
- Development
- Error Handling
- Contributing
- License
Related Resources
Appeared in Searches
- A tool for uploading and analyzing documents, extracting text from PDFs, and conducting research
- A resource for finding up-to-date Australian legal sources such as journal articles, case law, and essays
- How to scrape web content
- A tool or website for finding website backlinks
- Library for performing depth-first search to find paths under a domain