Firecrawl MCP 服务器
使用 Firecrawl API 进行网页抓取、内容搜索、站点爬取和数据提取的模型上下文协议 (MCP) 服务器。
特征
网页抓取:使用可自定义的选项从任何网页提取内容
移动设备模拟
广告和弹出窗口拦截
内容过滤
结构化数据提取
多种输出格式
内容搜索:智能搜索功能
多语言支持
基于位置的结果
可定制的结果限制
结构化输出格式
网站爬取:高级网页爬取功能
深度控制
路径过滤
速率限制
进度追踪
网站地图集成
站点映射:生成站点结构图
子域名支持
搜索过滤
链接分析
视觉层次
数据提取:从多个 URL 中提取结构化数据
架构验证
批处理
网络搜索丰富
自定义提取提示
安装
快速入门
从开发者门户获取您的 Firecrawl API 密钥
设置您的 API 密钥:
Unix/Linux/macOS(bash/zsh):
export FIRECRAWL_API_KEY=your-api-keyWindows(命令提示符):
set FIRECRAWL_API_KEY=your-api-keyWindows(PowerShell):
$env:FIRECRAWL_API_KEY = "your-api-key"替代方案:使用 .env 文件(推荐用于开发):
# Install dotenv npm install dotenv # Create .env file echo "FIRECRAWL_API_KEY=your-api-key" > .env然后在你的代码中:
import dotenv from 'dotenv'; dotenv.config();运行服务器:
mcp-server-firecrawl
一体化
克劳德桌面应用程序
添加到您的 MCP 设置:
Claude VSCode 扩展
添加到您的 MCP 配置:
使用示例
网页抓取
网站抓取
站点地图
数据提取
配置
有关详细的设置选项,请参阅配置指南。
API 文档
有关详细的端点规范,请参阅API 文档。
发展
示例
查看示例目录以获取更多使用示例:
基本抓取: scrape.ts
爬取和映射: crawl-and-map.ts
错误处理
服务器实现了强大的错误处理:
使用指数退避算法进行速率限制
自动重试
详细错误消息
调试日志记录
安全
API 密钥保护
请求验证
域名允许列表
速率限制
安全错误消息
贡献
请参阅CONTRIBUTING.md了解贡献指南。
执照
MIT 许可证 - 详情请参阅许可证。
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
使用 Firecrawl API 提供网页抓取和智能内容搜索功能的服务器,使 AI 代理能够从网站提取结构化数据并执行内容搜索。
Related Resources
Related MCP Servers
- Asecurity-licenseAqualityBuilt as a Model Context Protocol (MCP) server that provides advanced web search, content extraction, web crawling, and scraping capabilities using the Firecrawl API.Last updated -1
- Asecurity-licenseAqualityA server that provides tools to scrape websites and extract structured data from them using Firecrawl's APIs, supporting both basic website scraping in multiple formats and custom schema-based data extraction.Last updated -1
- -security-license-qualityA Model Context Protocol server that enables AI assistants to perform advanced web scraping, crawling, searching, and data extraction through the Firecrawl API.Last updated -39,239MIT License
- -security-license-qualityEnables intelligent web scraping through a browser automation tool that can search Google, navigate to webpages, and extract content from various websites including GitHub, Stack Overflow, and documentation sites.Last updated -1