Skip to main content
Glama

Fetch MCP Server

Official
MIT License
51,752
  • Linux
  • Apple

Obtener servidor MCP

Un servidor de Protocolo de Contexto de Modelo (MLM) que proporciona capacidades de obtención de contenido web. Este servidor permite a los LLM recuperar y procesar contenido de páginas web, convirtiendo HTML a Markdown para facilitar su uso.

La herramienta de búsqueda truncará la respuesta, pero con el argumento start_index , puedes especificar dónde comenzar la extracción de contenido. Esto permite que los modelos lean una página web en fragmentos hasta encontrar la información que necesitan.

Herramientas disponibles

  • fetch : obtiene una URL de Internet y extrae su contenido en formato Markdown.
    • url (cadena, obligatoria): URL para obtener
    • max_length (entero, opcional): número máximo de caracteres a devolver (predeterminado: 5000)
    • start_index (entero, opcional): comienza el contenido a partir de este índice de caracteres (valor predeterminado: 0)
    • raw (booleano, opcional): obtener contenido sin procesar sin conversión de Markdown (valor predeterminado: falso)

Indicaciones

  • buscar
    • Obtener una URL y extraer su contenido como markdown
    • Argumentos:
      • url (cadena, obligatoria): URL para obtener

Instalación

Opcionalmente: instale node.js, esto hará que el servidor de búsqueda utilice un simplificador HTML diferente que es más robusto.

Uso de uv (recomendado)

Al usar uv no se requiere ninguna instalación específica. Usaremos uvx para ejecutar directamente mcp-server-fetch .

Uso de PIP

Alternativamente, puede instalar mcp-server-fetch a través de pip:

pip install mcp-server-fetch

Después de la instalación, puedes ejecutarlo como un script usando:

python -m mcp_server_fetch

Configuración

Configurar para Claude.app

Añade a tu configuración de Claude:

"mcpServers": { "fetch": { "command": "uvx", "args": ["mcp-server-fetch"] } }
"mcpServers": { "fetch": { "command": "docker", "args": ["run", "-i", "--rm", "mcp/fetch"] } }
"mcpServers": { "fetch": { "command": "python", "args": ["-m", "mcp_server_fetch"] } }

Configurar para VS Code

Para una instalación rápida, utilice uno de los botones de instalación de un solo clic que aparecen a continuación...

Para la instalación manual, agregue el siguiente bloque JSON a su archivo de configuración de usuario (JSON) en VS Code. Para ello, presione Ctrl + Shift + P y escriba Preferences: Open User Settings (JSON) .

Opcionalmente, puede agregarlo a un archivo llamado .vscode/mcp.json en su espacio de trabajo. Esto le permitirá compartir la configuración con otros.

Tenga en cuenta que la clave mcp es necesaria cuando se utiliza el archivo mcp.json .

{ "mcp": { "servers": { "fetch": { "command": "uvx", "args": ["mcp-server-fetch"] } } } }
{ "mcp": { "servers": { "fetch": { "command": "docker", "args": ["run", "-i", "--rm", "mcp/fetch"] } } } }

Personalización - robots.txt

De forma predeterminada, el servidor obedecerá el archivo robots.txt de un sitio web si la solicitud proviene del modelo (mediante una herramienta), pero no si la solicitud fue iniciada por el usuario (mediante un mensaje). Esto se puede desactivar añadiendo el argumento --ignore-robots-txt a la lista de args de la configuración.

Personalización - Agente de usuario

De manera predeterminada, dependiendo de si la solicitud provino del modelo (a través de una herramienta) o fue iniciada por el usuario (a través de un mensaje), el servidor utilizará el agente de usuario.

ModelContextProtocol/1.0 (Autonomous; +https://github.com/modelcontextprotocol/servers)

o

ModelContextProtocol/1.0 (User-Specified; +https://github.com/modelcontextprotocol/servers)

Esto se puede personalizar agregando el argumento --user-agent=YourUserAgent a la lista de args en la configuración.

Personalización - Proxy

El servidor se puede configurar para utilizar un proxy mediante el argumento --proxy-url .

Depuración

Puede usar el inspector MCP para depurar el servidor. Para instalaciones uvx:

npx @modelcontextprotocol/inspector uvx mcp-server-fetch

O si ha instalado el paquete en un directorio específico o está desarrollando en él:

cd path/to/servers/src/fetch npx @modelcontextprotocol/inspector uv run mcp-server-fetch

Contribuyendo

Invitamos a todos a contribuir para ampliar y mejorar mcp-server-fetch. Ya sea que desee añadir nuevas herramientas, mejorar la funcionalidad existente o mejorar la documentación, su opinión es valiosa.

Para ver ejemplos de otros servidores MCP y patrones de implementación, consulte: https://github.com/modelcontextprotocol/servers

¡Aceptamos solicitudes de incorporación de cambios! No dudes en contribuir con nuevas ideas, correcciones de errores o mejoras para que mcp-server-fetch sea aún más potente y útil.

Licencia

mcp-server-fetch está licenciado bajo la Licencia MIT. Esto significa que usted tiene libertad para usar, modificar y distribuir el software, sujeto a los términos y condiciones de la Licencia MIT. Para más detalles, consulte el archivo de LICENCIA en el repositorio del proyecto.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Tools

Este servidor permite a los LLM recuperar y procesar contenido de páginas web, convirtiendo HTML a Markdown para facilitar su consumo.

  1. Herramientas disponibles
    1. Indicaciones
      1. Instalación
        1. Uso de uv (recomendado)
        2. Uso de PIP
      2. Configuración
        1. Configurar para Claude.app
        2. Configurar para VS Code
        3. Personalización - robots.txt
        4. Personalización - Agente de usuario
        5. Personalización - Proxy
      3. Depuración
        1. Contribuyendo
          1. Licencia

            Related MCP Servers

            • A
              security
              A
              license
              A
              quality
              This server converts webpages into clean, structured Markdown optimized for language model consumption, removing unnecessary content and supporting JavaScript rendering.
              Last updated -
              1
              5
              JavaScript
              MIT License
              • Apple
            • -
              security
              A
              license
              -
              quality
              Enables retrieval and processing of web page content for LLMs by converting HTML to markdown, with support for content truncation and pagination.
              Last updated -
              1
              1
              Python
              MIT License
            • A
              security
              A
              license
              A
              quality
              A server that leverages Cloudflare Browser Rendering to extract and process web content for use as context in LLMs, offering tools for fetching pages, searching documentation, extracting structured content, and summarizing content.
              Last updated -
              4
              3
              TypeScript
              MIT License
              • Apple
            • A
              security
              F
              license
              A
              quality
              A server that helps discover and analyze websites implementing the llms.txt standard, allowing users to check if websites have llms.txt files and list known compliant websites.
              Last updated -
              2
              2
              44
              JavaScript
              • Apple

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/modelcontextprotocol/fetch'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server