Integrations
Сервер Firecrawl MCP
Реализация сервера Model Context Protocol (MCP), которая интегрируется с Firecrawl для обеспечения возможностей веб-скрапинга.
Большое спасибо @vrknetha и @knacklabs за первоначальную реализацию!
Функции
- Веб-скрапинг, сканирование и обнаружение
- Поиск и извлечение контента
- Глубокое исследование и пакетный сбор данных
- Автоматические повторные попытки и ограничение скорости
- Поддержка в облаке и на собственном хостинге
- Поддержка SSE
Поэкспериментируйте с нашим MCP-сервером на игровой площадке MCP.so или на Klavis AI .
Установка
Работает с npx
Ручная установка
Работает на курсоре
Настройка Cursor 🖥️ Примечание: требуется Cursor версии 0.45.6+. Для получения самых последних инструкций по настройке обратитесь к официальной документации Cursor по настройке серверов MCP: Руководство по настройке сервера Cursor MCP
Чтобы настроить Firecrawl MCP в Cursor v0.48.6
- Открыть настройки курсора
- Перейти к разделу «Функции» > «Серверы MCP»
- Нажмите «+ Добавить новый глобальный сервер MCP»
- Введите следующий код:Copy
Чтобы настроить Firecrawl MCP в Cursor v0.45.6
- Открыть настройки курсора
- Перейти к разделу «Функции» > «Серверы MCP»
- Нажмите «+ Добавить новый сервер MCP»
- Введите следующее:
- Имя: "firecrawl-mcp" (или другое предпочитаемое вами имя)
- Тип: "команда"
- Команда:
env FIRECRAWL_API_KEY=your-api-key npx -y firecrawl-mcp
Если вы используете Windows и столкнулись с проблемами, попробуйте
cmd /c "set FIRECRAWL_API_KEY=your-api-key && npx -y firecrawl-mcp"
Замените your-api-key
на ваш ключ API Firecrawl. Если у вас его еще нет, вы можете создать учетную запись и получить ее по адресу https://www.firecrawl.dev/app/api-keys
После добавления обновите список серверов MCP, чтобы увидеть новые инструменты. Composer Agent автоматически использует Firecrawl MCP, когда это уместно, но вы можете явно запросить его, описав свои потребности в веб-скрапинге. Откройте Composer с помощью Command+L (Mac), выберите «Agent» рядом с кнопкой «Отправить» и введите свой запрос.
Бег на виндсерфинге
Добавьте это в ваш ./codeium/windsurf/model_config.json
:
Работает в локальном режиме SSE
Чтобы запустить сервер с использованием Server-Sent Events (SSE) локально вместо транспорта stdio по умолчанию:
Используйте URL: http://localhost:3000/sse
Установка через Smithery (Legacy)
Чтобы автоматически установить Firecrawl для Claude Desktop через Smithery :
Работает на VS Code
Для установки в один клик нажмите одну из кнопок установки ниже...
Для ручной установки добавьте следующий блок JSON в файл настроек пользователя (JSON) в VS Code. Это можно сделать, нажав Ctrl + Shift + P
и введя Preferences: Open User Settings (JSON)
.
При желании вы можете добавить его в файл .vscode/mcp.json
в вашем рабочем пространстве. Это позволит вам поделиться конфигурацией с другими:
Конфигурация
Переменные среды
Требуется для облачного API
FIRECRAWL_API_KEY
: Ваш ключ API Firecrawl- Требуется при использовании облачного API (по умолчанию)
- Необязательно при использовании размещенного на собственном сервере экземпляра с
FIRECRAWL_API_URL
FIRECRAWL_API_URL
(необязательно): конечная точка пользовательского API для экземпляров, размещенных на собственном сервере- Пример:
https://firecrawl.your-domain.com
- Если не указано иное, будет использоваться облачный API (требуется ключ API)
- Пример:
Дополнительная конфигурация
Повторить конфигурацию
FIRECRAWL_RETRY_MAX_ATTEMPTS
: Максимальное количество повторных попыток (по умолчанию: 3)FIRECRAWL_RETRY_INITIAL_DELAY
: Начальная задержка в миллисекундах перед первой повторной попыткой (по умолчанию: 1000)FIRECRAWL_RETRY_MAX_DELAY
: Максимальная задержка в миллисекундах между повторными попытками (по умолчанию: 10000)FIRECRAWL_RETRY_BACKOFF_FACTOR
: Экспоненциальный множитель задержки (по умолчанию: 2)
Мониторинг использования кредита
FIRECRAWL_CREDIT_WARNING_THRESHOLD
: Порог предупреждения об использовании кредита (по умолчанию: 1000)FIRECRAWL_CREDIT_CRITICAL_THRESHOLD
: Критический порог использования кредита (по умолчанию: 100)
Примеры конфигурации
Для использования облачного API с настраиваемыми повторными попытками и кредитным мониторингом:
Для экземпляра, размещенного самостоятельно:
Использование с Claude Desktop
Добавьте это в ваш claude_desktop_config.json
:
Конфигурация системы
Сервер включает несколько настраиваемых параметров, которые можно задать через переменные среды. Вот значения по умолчанию, если они не настроены:
Эти конфигурации контролируют:
- Повторное поведение
- Автоматически повторяет неудачные запросы из-за ограничений по скорости
- Использует экспоненциальную задержку, чтобы избежать перегрузки API.
- Пример: При настройках по умолчанию повторные попытки будут предприняты в:
- 1-я повторная попытка: задержка 1 секунда
- 2-я повторная попытка: задержка 2 секунды
- 3-я повторная попытка: задержка 4 секунды (ограничено maxDelay)
- Мониторинг использования кредита
- Отслеживает потребление кредита API для использования облачного API
- Выдает предупреждения при достижении определенных пороговых значений
- Помогает предотвратить неожиданные перебои в обслуживании
- Пример: С настройками по умолчанию:
- Предупреждение об оставшихся 1000 кредитах
- Критическая тревога при оставшихся 100 кредитах
Ограничение скорости и пакетная обработка
Сервер использует встроенные возможности Firecrawl по ограничению скорости и пакетной обработке:
- Автоматическая обработка ограничения скорости с экспоненциальным откатом
- Эффективная параллельная обработка для пакетных операций
- Интеллектуальная очередь запросов и регулирование
- Автоматические повторные попытки при временных ошибках
Доступные инструменты
1. Инструмент для скрейпинга ( firecrawl_scrape
)
Извлекайте контент из одного URL-адреса с помощью расширенных параметров.
2. Инструмент пакетной обработки данных ( firecrawl_batch_scrape
)
Эффективно сканируйте несколько URL-адресов с помощью встроенного ограничения скорости и параллельной обработки.
Ответ включает идентификатор операции для проверки статуса:
3. Проверьте статус партии ( firecrawl_check_batch_status
)
Проверьте статус пакетной операции.
4. Инструмент поиска ( firecrawl_search
)
Поиск в Интернете и, при необходимости, извлечение контента из результатов поиска.
5. Инструмент сканирования ( firecrawl_crawl
)
Запустите асинхронное сканирование с расширенными параметрами.
6. Инструмент извлечения ( firecrawl_extract
)
Извлечение структурированной информации из веб-страниц с использованием возможностей LLM. Поддерживает как облачное ИИ, так и самостоятельное извлечение LLM.
Пример ответа:
Параметры инструмента извлечения:
urls
: Массив URL-адресов для извлечения информацииprompt
: Пользовательский запрос для извлечения LLMsystemPrompt
: системное приглашение для руководства LLMschema
: схема JSON для извлечения структурированных данныхallowExternalLinks
: Разрешить извлечение из внешних ссылокenableWebSearch
: включить веб-поиск для дополнительного контекстаincludeSubdomains
: Включить поддомены в извлечение
При использовании экземпляра self-hosted извлечение будет использовать ваш настроенный LLM. Для облачного API используется управляемая служба LLM Firecrawl.
7. Инструмент глубокого исследования (firecrawl_deep_research)
Проведите глубокое веб-исследование по запросу с использованием интеллектуального сканирования, поиска и анализа LLM.
Аргументы:
- запрос (строка, обязательно): исследовательский вопрос или тема для изучения.
- maxDepth (число, необязательно): максимальная рекурсивная глубина сканирования/поиска (по умолчанию: 3).
- timeLimit (число, необязательно): ограничение времени в секундах для сеанса исследования (по умолчанию: 120).
- maxUrls (число, необязательно): максимальное количество URL-адресов для анализа (по умолчанию: 50).
Возврат:
- Окончательный анализ, выполненный LLM на основе исследования. (data.finalAnalysis)
- Может также включать структурированные мероприятия и источники, используемые в процессе исследования.
8. Инструмент создания LLMs.txt (firecrawl_generate_llmstxt)
Сгенерировать стандартизированный файл llms.txt (и опционально llms-full.txt) для данного домена. Этот файл определяет, как большие языковые модели должны взаимодействовать с сайтом.
Аргументы:
- url (строка, обязательно): базовый URL-адрес веб-сайта для анализа.
- maxUrls (число, необязательно): максимальное количество включаемых URL-адресов (по умолчанию: 10).
- showFullText (логическое значение, необязательно): включать ли содержимое llms-full.txt в ответ.
Возврат:
- Сгенерированное содержимое файла llms.txt и, опционально, llms-full.txt (data.llmstxt и/или data.llmsfulltxt)
Система регистрации
Сервер включает в себя комплексное ведение журнала:
- Статус и ход операции
- Показатели производительности
- Мониторинг использования кредита
- Отслеживание лимита скорости
- Ошибочные состояния
Примеры сообщений журнала:
Обработка ошибок
Сервер обеспечивает надежную обработку ошибок:
- Автоматические повторные попытки при временных ошибках
- Обработка ограничения скорости с отсрочкой
- Подробные сообщения об ошибках
- Предупреждения об использовании кредита
- Устойчивость сети
Пример ответа об ошибке:
Разработка
Внося вклад
- Форк репозитория
- Создайте свою ветку функций
- Запуск тестов:
npm test
- Отправить запрос на извлечение
Спасибо всем, кто внес свой вклад
Спасибо @vrknetha , @cawstudios за первоначальную реализацию!
Благодарим MCP.so и Klavis AI за хостинг, а также @gstarwd , @xiangkaiz и @zihaolin96 за интеграцию нашего сервера.
Лицензия
Лицензия MIT — подробности см. в файле LICENSE
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
Tools
Реализация сервера Model Context Protocol (MCP), которая интегрируется с FireCrawl для расширенных возможностей веб-скрапинга.
- Функции
- Установка
- Конфигурация
- Доступные инструменты
- Инструмент для скрейпинга ( firecrawl_scrape )
- Инструмент пакетной обработки данных ( firecrawl_batch_scrape )
- Проверьте статус партии ( firecrawl_check_batch_status )
- Инструмент поиска ( firecrawl_search )
- Инструмент сканирования ( firecrawl_crawl )
- Инструмент извлечения ( firecrawl_extract )
- Инструмент глубокого исследования (firecrawl\_deep\_research)
- Инструмент создания LLMs.txt (firecrawl\_generate\_llmstxt)
- Система регистрации
- Обработка ошибок
- Разработка
- Лицензия
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityMCP Server enabling integration with Scrapezy to retrieve structured data from websites.Last updated -1121JavaScriptMIT License
- AsecurityFlicenseAqualityBuilt as a Model Context Protocol (MCP) server that provides advanced web search, content extraction, web crawling, and scraping capabilities using the Firecrawl API.Last updated -41Python
- -securityAlicense-qualityA Model Context Protocol server that allows LLMs to interact with web content through standardized tools, currently supporting web scraping functionality.Last updated -PythonMIT License
- AsecurityFlicenseAqualityA server that provides tools to scrape websites and extract structured data from them using Firecrawl's APIs, supporting both basic website scraping in multiple formats and custom schema-based data extraction.Last updated -2JavaScript
Appeared in Searches
- Information about 雪球 (Xueqiu or Snowball)
- A tool or method for viewing the unrendered HTML/JavaScript of a webpage
- Adding web browsing and page reading capabilities to an agent
- Resources or Information on Industry Research
- A resource for finding up-to-date Australian legal sources such as journal articles, case law, and essays