Integrations
MCP Webscan Server
Ein Model Context Protocol (MCP)-Server zum Scannen und Analysieren von Webinhalten. Dieser Server bietet Tools zum Abrufen, Analysieren und Extrahieren von Informationen aus Webseiten.
Merkmale
- Seitenabruf : Konvertieren Sie Webseiten zur einfachen Analyse in Markdown
- Link-Extraktion : Extrahieren und analysieren Sie Links von Webseiten
- Site Crawling : Websites rekursiv durchsuchen, um Inhalte zu entdecken
- Linkprüfung : Identifizieren Sie defekte Links auf Webseiten
- Mustervergleich : Finden Sie URLs, die bestimmten Mustern entsprechen
- Sitemap-Generierung : Generieren Sie XML-Sitemaps für Websites
Installation
Installation über Smithery
So installieren Sie Webscan für Claude Desktop automatisch über Smithery :
Manuelle Installation
Verwendung
Starten des Servers
Der Server läuft auf stdio-Transport und ist daher mit MCP-Clients wie Claude Desktop kompatibel.
Verfügbare Tools
fetch-page
- Ruft eine Webseite ab und konvertiert sie in Markdown.
- Parameter:
url
(erforderlich): URL der abzurufenden Seite.selector
(optional): CSS-Selektor zum Ansprechen bestimmter Inhalte.
extract-links
- Extrahiert alle Links einer Webseite mit ihrem Text.
- Parameter:
url
(erforderlich): URL der zu analysierenden Seite.baseUrl
(optional): Basis-URL zum Filtern von Links.limit
(optional, Standard: 100): Maximale Anzahl der zurückzugebenden Links.
crawl-site
- Durchsucht eine Website rekursiv bis zu einer angegebenen Tiefe.
- Parameter:
url
(erforderlich): Start-URL zum Crawlen.maxDepth
(optional, Standard: 2): Maximale Crawltiefe (0-5).
check-links
- Überprüft, ob auf einer Seite defekte Links vorhanden sind.
- Parameter:
url
(erforderlich): URL, auf die Links geprüft werden sollen.
find-patterns
- Sucht URLs, die einem bestimmten Muster entsprechen.
- Parameter:
url
(erforderlich): URL, in der gesucht werden soll.pattern
(erforderlich): JavaScript-kompatibles Regex-Muster zum Abgleichen von URLs.
generate-site-map
- Generiert durch Crawlen eine einfache XML-Sitemap.
- Parameter:
url
(erforderlich): Stamm-URL für das Sitemap-Crawlen.maxDepth
(optional, Standard: 2): Maximale Crawl-Tiefe zum Erkennen von URLs (0-5).limit
(optional, Standard: 1000): Maximale Anzahl von URLs, die in die Sitemap aufgenommen werden sollen.
Beispielverwendung mit Claude Desktop
- Konfigurieren Sie den Server in Ihren Claude Desktop-Einstellungen:
- Nutzen Sie die Tools in Ihren Gesprächen:
Entwicklung
Voraussetzungen
- Node.js >= 18
- npm
Projektstruktur (nach der Refaktorierung)
Gebäude
Entwicklungsmodus
Ausführen von Evaluierungen
Das Evals-Paket lädt einen MCP-Client, der anschließend die Datei index.ts ausführt, sodass zwischen den Tests kein Neuaufbau erforderlich ist. Sie können Umgebungsvariablen laden, indem Sie dem Befehl npx voranstellen. Die vollständige Dokumentation finden Sie hier .
Fehlerbehandlung
Der Server implementiert eine umfassende Fehlerbehandlung:
- Ungültige Parameter
- Netzwerkfehler
- Fehler beim Parsen von Inhalten
- URL-Validierung
Alle Fehler werden gemäß der MCP-Spezifikation ordnungsgemäß formatiert.
Beitragen
- Forken Sie das Repository
- Erstellen Sie Ihren Feature-Zweig (
git checkout -b feature/amazing-feature
) - Übernehmen Sie Ihre Änderungen (
git commit -m 'Add some amazing feature'
) - Pushen zum Zweig (
git push origin feature/amazing-feature
) - Öffnen einer Pull-Anfrage
Lizenz
MIT-Lizenz – Einzelheiten finden Sie in der Datei LICENSE
You must be authenticated.
Ermöglicht das Scannen und Analysieren von Webinhalten durch Abrufen, Analysieren und Extrahieren von Informationen von Webseiten mithilfe von Tools wie Seitenabruf, Linkextraktion, Site-Crawling und mehr.
- Merkmale
- Installation
- Verwendung
- Beispielverwendung mit Claude Desktop
- Entwicklung
- Ausführen von Evaluierungen
- Fehlerbehandlung
- Beitragen
- Lizenz
Related Resources
Related MCP Servers
- AsecurityFlicenseAqualityProvides functionality to fetch web content in various formats, including HTML, JSON, plain text, and Markdown.Last updated -4137,083150TypeScript
- AsecurityAlicenseAqualityEnables text extraction from web pages and PDFs, and execution of predefined commands, enhancing content processing and automation capabilities.Last updated -3TypeScriptMIT License
- -securityFlicense-qualityProvides functionality to fetch web content in various formats, including HTML, JSON, plain text, and Markdown.Last updated -137,0831
- -security-license-qualityProvides functionality to fetch web content in various formats, including HTML, JSON, plain text, and Markdown with support for custom headers.Last updated -137,083TypeScript