MCP Webscan Server
Ein Model Context Protocol (MCP)-Server zum Scannen und Analysieren von Webinhalten. Dieser Server bietet Tools zum Abrufen, Analysieren und Extrahieren von Informationen aus Webseiten.
Merkmale
Seitenabruf : Konvertieren Sie Webseiten zur einfachen Analyse in Markdown
Link-Extraktion : Extrahieren und analysieren Sie Links von Webseiten
Site Crawling : Websites rekursiv durchsuchen, um Inhalte zu entdecken
Linkprüfung : Identifizieren Sie defekte Links auf Webseiten
Mustervergleich : Finden Sie URLs, die bestimmten Mustern entsprechen
Sitemap-Generierung : Generieren Sie XML-Sitemaps für Websites
Installation
Installation über Smithery
So installieren Sie Webscan für Claude Desktop automatisch über Smithery :
Manuelle Installation
Verwendung
Starten des Servers
Der Server läuft auf stdio-Transport und ist daher mit MCP-Clients wie Claude Desktop kompatibel.
Verfügbare Tools
fetch-page
Ruft eine Webseite ab und konvertiert sie in Markdown.
Parameter:
url
(erforderlich): URL der abzurufenden Seite.selector
(optional): CSS-Selektor zum Ansprechen bestimmter Inhalte.
extract-links
Extrahiert alle Links einer Webseite mit ihrem Text.
Parameter:
url
(erforderlich): URL der zu analysierenden Seite.baseUrl
(optional): Basis-URL zum Filtern von Links.limit
(optional, Standard: 100): Maximale Anzahl der zurückzugebenden Links.
crawl-site
Durchsucht eine Website rekursiv bis zu einer angegebenen Tiefe.
Parameter:
url
(erforderlich): Start-URL zum Crawlen.maxDepth
(optional, Standard: 2): Maximale Crawltiefe (0-5).
check-links
Überprüft, ob auf einer Seite defekte Links vorhanden sind.
Parameter:
url
(erforderlich): URL, auf die Links geprüft werden sollen.
find-patterns
Sucht URLs, die einem bestimmten Muster entsprechen.
Parameter:
url
(erforderlich): URL, in der gesucht werden soll.pattern
(erforderlich): JavaScript-kompatibles Regex-Muster zum Abgleichen von URLs.
generate-site-map
Generiert durch Crawlen eine einfache XML-Sitemap.
Parameter:
url
(erforderlich): Stamm-URL für das Sitemap-Crawlen.maxDepth
(optional, Standard: 2): Maximale Crawl-Tiefe zum Erkennen von URLs (0-5).limit
(optional, Standard: 1000): Maximale Anzahl von URLs, die in die Sitemap aufgenommen werden sollen.
Beispielverwendung mit Claude Desktop
Konfigurieren Sie den Server in Ihren Claude Desktop-Einstellungen:
Nutzen Sie die Tools in Ihren Gesprächen:
Entwicklung
Voraussetzungen
Node.js >= 18
npm
Projektstruktur (nach der Refaktorierung)
Gebäude
Entwicklungsmodus
Ausführen von Evaluierungen
Das Evals-Paket lädt einen MCP-Client, der anschließend die Datei index.ts ausführt, sodass zwischen den Tests kein Neuaufbau erforderlich ist. Sie können Umgebungsvariablen laden, indem Sie dem Befehl npx voranstellen. Die vollständige Dokumentation finden Sie hier .
Fehlerbehandlung
Der Server implementiert eine umfassende Fehlerbehandlung:
Ungültige Parameter
Netzwerkfehler
Fehler beim Parsen von Inhalten
URL-Validierung
Alle Fehler werden gemäß der MCP-Spezifikation ordnungsgemäß formatiert.
Beitragen
Forken Sie das Repository
Erstellen Sie Ihren Feature-Zweig (
git checkout -b feature/amazing-feature
)Übernehmen Sie Ihre Änderungen (
git commit -m 'Add some amazing feature'
)Pushen zum Zweig (
git push origin feature/amazing-feature
)Öffnen einer Pull-Anfrage
Lizenz
MIT-Lizenz – Einzelheiten finden Sie in der Datei LICENSE
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ermöglicht das Scannen und Analysieren von Webinhalten durch Abrufen, Analysieren und Extrahieren von Informationen von Webseiten mithilfe von Tools wie Seitenabruf, Linkextraktion, Site-Crawling und mehr.
- Merkmale
- Installation
- Verwendung
- Beispielverwendung mit Claude Desktop
- Entwicklung
- Ausführen von Evaluierungen
- Fehlerbehandlung
- Beitragen
- Lizenz
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityProvides functionality to fetch web content in various formats, including HTML, JSON, plain text, and Markdown.Last updated -4365595MIT License
- AsecurityAlicenseAqualityEnables text extraction from web pages and PDFs, and execution of predefined commands, enhancing content processing and automation capabilities.Last updated -MIT License
- AsecurityFlicenseAqualityProvides functionality to fetch web content in various formats, including HTML, JSON, plain text, and Markdown.Last updated -4105,4182
- -securityFlicense-qualityProvides functionality to fetch and transform web content in various formats (HTML, JSON, plain text, and Markdown) through simple API calls.Last updated -105,4181