intercept-mcp
intercept-mcp
Дайте вашему ИИ возможность читать веб-страницы. Одна команда, ключи API не требуются.
Без этого инструмента ваш ИИ при переходе по URL получает ошибку 403, «стену» или гору необработанного HTML. С intercept он почти всегда получает контент — чистый Markdown, готовый к использованию.
Обрабатывает твиты, видео с YouTube (с транскриптами, если доступны), статьи с arXiv, PDF-файлы, статьи Wikipedia и репозитории GitHub. Если первая стратегия не срабатывает, он пробует еще до 10 вариантов, прежде чем сдаться.
Работает с любым MCP-клиентом: Claude Code, Claude Desktop, Codex, Cursor, Windsurf, Cline и другими.
Установка
Claude Code
claude mcp add intercept -s user -- npx -y intercept-mcpCodex
codex mcp add intercept -- npx -y intercept-mcpCursor
Settings → MCP → Add Server:
{
"mcpServers": {
"intercept": {
"command": "npx",
"args": ["-y", "intercept-mcp"]
}
}
}Windsurf
Settings → MCP → Add Server → та же конфигурация JSON, что и выше.
Claude Desktop
Добавьте в ваш claude_desktop_config.json:
{
"mcpServers": {
"intercept": {
"command": "npx",
"args": ["-y", "intercept-mcp"]
}
}
}Другие MCP-клиенты
Любой клиент, поддерживающий stdio MCP-серверы, может запустить npx -y intercept-mcp.
Для инструмента fetch ключи API не нужны.
Как это работает
URL-адреса обрабатываются в три этапа:
1. Специализированные обработчики
Известные шаблоны URL направляются к специализированным обработчикам перед запуском конвейера резервных стратегий:
Шаблон | Обработчик | Что вы получаете |
| Twitter/X | Текст твита, автор, медиа, статистика вовлеченности (через сторонние API) |
| YouTube | Название, канал, длительность, просмотры, описание, транскрипт (если доступны субтитры) |
| arXiv | Метаданные статьи, авторы, аннотация, категории |
| Извлеченный текст (только для PDF с текстовым слоем) | |
| Wikipedia | Чистое содержимое статьи через Wikimedia REST API |
| GitHub | Исходное содержимое README.md |
2. Конвейер резервных стратегий
Если ни один обработчик не подошел (или обработчик ничего не вернул), URL попадает в многоуровневый конвейер:
Уровень | Загрузчик | Стратегия |
1 | Cloudflare Browser Rendering | JS-рендеринг + извлечение Markdown (опционально, нужен API-токен) |
1 | Jina Reader | Сервис извлечения чистого Markdown |
2 | Wayback + Codetabs | Архивная версия + CORS-прокси (запуск параллельно) |
3 | Raw fetch | Прямой GET с заголовками браузера + преобразование в Markdown через Turndown |
3 | Stealth fetch | Имитация TLS-отпечатков браузера через got-scraping (опционально, см. ниже) |
4 | RSS, CrossRef, Semantic Scholar, HN, Reddit | Резервные варианты с метаданными / обсуждениями |
5 | OG Meta | Теги Open Graph (гарантированный резервный вариант) |
Загрузчики уровня 2 работают параллельно. Если оба успешны, побеждает результат более высокого качества. Все остальные уровни работают последовательно.
Все загрузчики возвращают корректный Markdown (заголовки, ссылки, жирный шрифт, таблицы, блоки кода) через Turndown — не обычный текст.
3. Кэширование
Результаты кэшируются в оперативной памяти с TTL (30 минут для успешных запросов, 5 минут для ошибок). Максимум 100 записей с вытеснением LRU. Неудачные URL кэшируются, чтобы предотвратить повторные попытки обращения к заведомо нерабочим ссылкам.
Инструменты
fetch
Получить URL и вернуть его содержимое в виде чистого Markdown.
url(строка, обязательно) — URL для полученияmaxTier(число, опционально, 1-5) — остановиться на этом уровне для случаев, чувствительных к скорости
search
Поиск в интернете и возврат результатов.
query(строка, обязательно) — поисковый запросcount(число, опционально, 1-20, по умолчанию 5) — количество результатов
Использует Brave Search API, если установлен BRAVE_API_KEY, затем SearXNG, если установлен SEARXNG_URL, и в крайнем случае — DuckDuckGo.
Промпты
research-topic
Поиск по теме и получение результатов из нескольких источников для создания сводки.
topic(строка) — тема для исследованияdepth(строка, по умолчанию "3") — количество результатов для получения
extract-article
Получение URL и извлечение ключевых моментов из контента.
url(строка) — URL для получения и суммаризации
Переменные окружения
Переменная | Обязательно | Описание |
| Нет | Ключ Brave Search API для поиска |
| Нет | URL вашего экземпляра SearXNG (рекомендуется) |
| Нет | API-токен Cloudflare с разрешением "Browser Rendering - Edit" |
| Нет | ID аккаунта Cloudflare (обязательно, если установлен |
| Нет | Установите |
Поиск: Есть резервный вариант DuckDuckGo, но он ограничен по частоте запросов и ненадежен. Для промышленного использования разверните свой SearXNG и установите SEARXNG_URL (см. ниже) или получите ключ Brave Search API.
Получение: Работает без ключей. Установите CF_API_TOKEN + CF_ACCOUNT_ID для включения Cloudflare Browser Rendering для страниц с активным использованием JavaScript (SPA, сайты на React).
Скрытый загрузчик (USE_STEALTH_FETCH)
Используйте на свой страх и риск. При включении добавляется загрузчик, который имитирует TLS-отпечатки реального браузера (наборы шифров Chrome/Firefox, настройки HTTP/2, порядок заголовков) с помощью got-scraping. Это может помочь обойти защиту от ботов и CAPTCHA на сайтах, которые в противном случае блокируют автоматические запросы.
Этот загрузчик работает на уровне 3 после обычного запроса. Если обычный запрос заблокирован (CAPTCHA, проверка Cloudflare, 403), скрытый загрузчик повторяет попытку с имитацией браузера.
Это может нарушать условия использования некоторых веб-сайтов. Авторы intercept-mcp не несут ответственности за то, как используется эта функция. Она отключена по умолчанию и требует явного включения.
Самостоятельный хостинг SearXNG
Для надежного поиска разверните SearXNG с помощью Docker. Конфигурация включена в репозиторий:
git clone https://github.com/bighippoman/intercept-mcp.git
cd intercept-mcp/searxng && docker compose up -dЗатем установите SEARXNG_URL=http://localhost:8888. Никаких ограничений по частоте, никаких CAPTCHA, агрегирует Google + Bing + DuckDuckGo + Wikipedia + Brave.
Или используйте любой существующий экземпляр SearXNG — просто установите SEARXNG_URL на его адрес.
Нормализация URL
Входящие URL автоматически очищаются:
Удаляются более 60 параметров отслеживания (UTM, click IDs, аналитика, A/B тесты и т.д.)
Удаляются хеш-фрагменты
Обновляются до HTTPS
Очищаются артефакты AMP
Сохраняются функциональные параметры (
ref,format,page,offset,limit)
Определение качества контента
Результат каждого загрузчика оценивается по качеству. Автоматический отказ при:
CAPTCHA / проверках Cloudflare
Страницах входа
Страницах с ошибками HTTP в теле ответа
Контенте менее 200 символов
Требования
Node.js >= 18
Для базового использования ключи API не требуются
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/bighippoman/intercept-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server