Skip to main content
Glama
modelcontextprotocol

Fetch MCP Server

Official

Получить MCP-сервер

Сервер Model Context Protocol, который обеспечивает возможности извлечения веб-контента. Этот сервер позволяет LLM извлекать и обрабатывать контент с веб-страниц, преобразуя HTML в markdown для более легкого использования.

Инструмент fetch обрежет ответ, но с помощью аргумента start_index можно указать, где начать извлечение контента. Это позволяет моделям читать веб-страницу по частям, пока они не найдут нужную им информацию.

Доступные инструменты

  • fetch — извлекает URL-адрес из Интернета и извлекает его содержимое в виде разметки.

    • url (строка, обязательно): URL для извлечения

    • max_length (целое число, необязательно): максимальное количество возвращаемых символов (по умолчанию: 5000)

    • start_index (целое число, необязательно): начать содержимое с этого индекса символа (по умолчанию: 0)

    • raw (логическое значение, необязательно): получить необработанный контент без преобразования в разметку (по умолчанию: false)

Подсказки

  • принести

    • Получить URL-адрес и извлечь его содержимое в формате markdown

    • Аргументы:

      • url (строка, обязательно): URL для извлечения

Установка

Дополнительно: установите node.js, это заставит сервер выборки использовать другой, более надежный упроститель HTML.

Использование УФ (рекомендуется)

При использовании uv не требуется специальной установки. Мы будем использовать uvx для прямого запуска mcp-server-fetch .

Использование PIP-картинки

В качестве альтернативы вы можете установить mcp-server-fetch через pip:

pip install mcp-server-fetch

После установки вы можете запустить его как скрипт, используя:

python -m mcp_server_fetch

Related MCP server: Fetch MCP Server

Конфигурация

Настроить для Claude.app

Добавьте в настройки Клода:

"mcpServers": { "fetch": { "command": "uvx", "args": ["mcp-server-fetch"] } }
"mcpServers": { "fetch": { "command": "docker", "args": ["run", "-i", "--rm", "mcp/fetch"] } }
"mcpServers": { "fetch": { "command": "python", "args": ["-m", "mcp_server_fetch"] } }

Настроить для VS Code

Для быстрой установки используйте одну из кнопок установки в один клик ниже...

Установить с UV в VS Code Установка с UV в VS Code Insiders

Установка с помощью Docker в VS Code Установка с помощью Docker в VS Code Insiders

Для ручной установки добавьте следующий блок JSON в файл настроек пользователя (JSON) в VS Code. Это можно сделать, нажав Ctrl + Shift + P и введя Preferences: Open User Settings (JSON) .

При желании вы можете добавить его в файл .vscode/mcp.json в вашем рабочем пространстве. Это позволит вам поделиться конфигурацией с другими.

Обратите внимание, что ключ mcp необходим при использовании файла mcp.json .

{ "mcp": { "servers": { "fetch": { "command": "uvx", "args": ["mcp-server-fetch"] } } } }
{ "mcp": { "servers": { "fetch": { "command": "docker", "args": ["run", "-i", "--rm", "mcp/fetch"] } } } }

Настройка - robots.txt

По умолчанию сервер будет подчиняться файлу robots.txt веб-сайта, если запрос поступил из модели (через инструмент), но не если запрос был инициирован пользователем (через приглашение). Это можно отключить, добавив аргумент --ignore-robots-txt в список args в конфигурации.

Настройка - User-agent

По умолчанию, в зависимости от того, поступил ли запрос от модели (через инструмент) или был инициирован пользователем (через подсказку), сервер будет использовать либо user-agent

ModelContextProtocol/1.0 (Autonomous; +https://github.com/modelcontextprotocol/servers)

или

ModelContextProtocol/1.0 (User-Specified; +https://github.com/modelcontextprotocol/servers)

Это можно настроить, добавив аргумент --user-agent=YourUserAgent в список args в конфигурации.

Настройка - Прокси

Сервер можно настроить на использование прокси-сервера с помощью аргумента --proxy-url .

Отладка

Вы можете использовать MCP inspector для отладки сервера. Для установок uvx:

npx @modelcontextprotocol/inspector uvx mcp-server-fetch

Или, если вы установили пакет в определенный каталог или ведете в нем разработку:

cd path/to/servers/src/fetch npx @modelcontextprotocol/inspector uv run mcp-server-fetch

Внося вклад

Мы приветствуем вклады, которые помогут расширить и улучшить mcp-server-fetch. Хотите ли вы добавить новые инструменты, улучшить существующую функциональность или улучшить документацию, ваш вклад будет ценным.

Примеры других серверов MCP и шаблонов реализации см. по ссылке: https://github.com/modelcontextprotocol/servers

Запросы на извлечение приветствуются! Не стесняйтесь предлагать новые идеи, исправления ошибок или улучшения, чтобы сделать mcp-server-fetch еще более мощным и полезным.

Лицензия

mcp-server-fetch лицензируется по лицензии MIT. Это означает, что вы можете свободно использовать, изменять и распространять программное обеспечение в соответствии с условиями лицензии MIT. Для получения более подробной информации см. файл LICENSE в репозитории проекта.

Install Server
A
security – no known vulnerabilities
-
license - not tested
A
quality - confirmed to work

Tools

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/modelcontextprotocol/fetch'

If you have feedback or need assistance with the MCP directory API, please join our Discord server