remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
MCP ウェブスキャン サーバー
ウェブコンテンツのスキャンと分析のためのモデルコンテキストプロトコル(MCP)サーバー。このサーバーは、ウェブページから情報を取得、分析、抽出するためのツールを提供します。
特徴
- ページフェッチ: WebページをMarkdownに変換して簡単に分析できます
- リンク抽出: Webページからリンクを抽出して分析します
- サイトクロール: ウェブサイトを再帰的にクロールしてコンテンツを発見する
- リンクチェック:ウェブページ上の壊れたリンクを識別する
- パターンマッチング: 特定のパターンに一致する URL を検索します
- サイトマップ生成: ウェブサイトの XML サイトマップを生成します
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の Webscan を自動的にインストールするには:
Copy
手動インストール
Copy
使用法
サーバーの起動
Copy
サーバーは stdio トランスポート上で実行されるため、Claude Desktop などの MCP クライアントと互換性があります。
利用可能なツール
fetch-page
- Web ページを取得して Markdown に変換します。
- パラメータ:
url
(必須): 取得するページの URL。selector
(オプション): 特定のコンテンツを対象とする CSS セレクター。
extract-links
- Web ページからすべてのリンクをテキストとともに抽出します。
- パラメータ:
url
(必須): 分析するページの URL。baseUrl
(オプション): リンクをフィルタリングするベース URL。limit
(オプション、デフォルト: 100): 返されるリンクの最大数。
crawl-site
- 指定された深さまで Web サイトを再帰的にクロールします。
- パラメータ:
url
(必須): クロールの開始 URL。maxDepth
(オプション、デフォルト: 2): 最大クロール深度 (0 ~ 5)。
check-links
- ページ上の壊れたリンクをチェックします。
- パラメータ:
url
(必須): リンクを確認する URL。
find-patterns
- 特定のパターンに一致する URL を検索します。
- パラメータ:
url
(必須): 検索する URL。pattern
(必須): URL を照合するための JavaScript 互換の正規表現パターン。
generate-site-map
- クロールによってシンプルな XML サイトマップを生成します。
- パラメータ:
url
(必須): サイトマップクロールのルート URL。maxDepth
(オプション、デフォルト: 2): URL を検出するための最大クロール深度 (0 ~ 5)。limit
(オプション、デフォルト: 1000): サイトマップに含める URL の最大数。
Claude Desktop の使用例
- Claude Desktop 設定でサーバーを構成します。
Copy
- 会話の中でツールを使用します:
Copy
発達
前提条件
- Node.js >= 18
- npm
プロジェクト構造(リファクタリング後)
Copy
建物
Copy
開発モード
Copy
エラー処理
サーバーは包括的なエラー処理を実装します。
- 無効なパラメータ
- ネットワークエラー
- コンテンツ解析エラー
- URL検証
すべてのエラーは、MCP 仕様に従って適切にフォーマットされます。
貢献
- リポジトリをフォークする
- 機能ブランチを作成します(
git checkout -b feature/amazing-feature
) - 変更をコミットします (
git commit -m 'Add some amazing feature'
) - ブランチにプッシュする (
git push origin feature/amazing-feature
) - プルリクエストを開く
ライセンス
MITライセンス - 詳細についてはLICENSEファイルを参照してください
You must be authenticated.
ページ取得、リンク抽出、サイトクロールなどのツールを使用して Web ページから情報を取得、分析、抽出することにより、Web コンテンツのスキャンと分析を可能にします。
- Features
- Installation
- Usage
- Example Usage with Claude Desktop
- Development
- Error Handling
- Contributing
- License
Related Resources
Appeared in Searches
- A tool for uploading and analyzing documents, extracting text from PDFs, and conducting research
- A resource for finding up-to-date Australian legal sources such as journal articles, case law, and essays
- How to scrape web content
- A tool or website for finding website backlinks
- Library for performing depth-first search to find paths under a domain