remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
MCP 网络扫描服务器
用于 Web 内容扫描和分析的模型上下文协议 (MCP) 服务器。该服务器提供从网页获取、分析和提取信息的工具。
特征
- 页面抓取:将网页转换为 Markdown 格式,方便分析
- 链接提取:从网页中提取并分析链接
- 网站爬取:递归爬取网站以发现内容
- 链接检查:识别网页上的断开链接
- 模式匹配:查找与特定模式匹配的 URL
- 站点地图生成:为网站生成 XML 站点地图
安装
通过 Smithery 安装
要通过Smithery自动安装 Claude Desktop 的 Webscan:
Copy
手动安装
Copy
用法
启动服务器
Copy
该服务器在 stdio 传输上运行,使其与 Claude Desktop 等 MCP 客户端兼容。
可用工具
fetch-page
- 获取网页并将其转换为 Markdown。
- 参数:
url
(必需):要获取的页面的 URL。selector
(可选):CSS 选择器用于定位特定内容。
extract-links
- 从网页中提取所有链接及其文本。
- 参数:
url
(必需):要分析的页面的 URL。baseUrl
(可选):过滤链接的基本 URL。limit
(可选,默认值:100):返回的最大链接数。
crawl-site
- 递归地爬取网站直至指定深度。
- 参数:
url
(必填):要抓取的起始 URL。maxDepth
(可选,默认值:2):最大爬行深度(0-5)。
check-links
- 检查页面上的断开的链接。
- 参数:
url
(必需):检查链接的 URL。
find-patterns
- 查找与特定模式匹配的 URL。
- 参数:
url
(必填):要搜索的 URL。pattern
(必需):与 JavaScript 兼容的正则表达式模式,用于匹配 URL。
generate-site-map
- 通过爬取生成一个简单的 XML 站点地图。
- 参数:
url
(必需):站点地图抓取的根 URL。maxDepth
(可选,默认值:2):发现 URL 的最大抓取深度(0-5)。limit
(可选,默认值:1000):站点地图中包含的最大 URL 数量。
Claude Desktop 的使用示例
- 在 Claude Desktop 设置中配置服务器:
Copy
- 在对话中使用这些工具:
Copy
发展
先决条件
- Node.js >= 18
- npm
项目结构(重构后)
Copy
建筑
Copy
开发模式
Copy
错误处理
服务器实现了全面的错误处理:
- 参数无效
- 网络错误
- 内容解析错误
- URL 验证
所有错误均根据 MCP 规范正确格式化。
贡献
- 分叉存储库
- 创建你的功能分支(
git checkout -b feature/amazing-feature
) - 提交您的更改(
git commit -m 'Add some amazing feature'
) - 推送到分支(
git push origin feature/amazing-feature
) - 打开拉取请求
执照
MIT 许可证 - 详情请参阅许可证文件
You must be authenticated.
通过使用页面抓取、链接提取、站点抓取等工具从网页抓取、分析和提取信息,实现网页内容扫描和分析。
- Features
- Installation
- Usage
- Example Usage with Claude Desktop
- Development
- Error Handling
- Contributing
- License
Related Resources
Appeared in Searches
- A tool for uploading and analyzing documents, extracting text from PDFs, and conducting research
- A resource for finding up-to-date Australian legal sources such as journal articles, case law, and essays
- How to scrape web content
- A tool or website for finding website backlinks
- Library for performing depth-first search to find paths under a domain