Skip to main content
Glama

Obtener servidor MCP

Un servidor de Protocolo de Contexto de Modelo (MLM) que proporciona capacidades de obtención de contenido web. Este servidor permite a los LLM recuperar y procesar contenido de páginas web, convirtiendo HTML a Markdown para facilitar su uso.

La herramienta de búsqueda truncará la respuesta, pero con el argumento start_index , puedes especificar dónde comenzar la extracción de contenido. Esto permite que los modelos lean una página web en fragmentos hasta encontrar la información que necesitan.

Herramientas disponibles

  • fetch : obtiene una URL de Internet y extrae su contenido en formato Markdown.

    • url (cadena, obligatoria): URL para obtener

    • max_length (entero, opcional): número máximo de caracteres a devolver (predeterminado: 5000)

    • start_index (entero, opcional): comienza el contenido a partir de este índice de caracteres (valor predeterminado: 0)

    • raw (booleano, opcional): obtener contenido sin procesar sin conversión de Markdown (valor predeterminado: falso)

Indicaciones

  • buscar

    • Obtener una URL y extraer su contenido como markdown

    • Argumentos:

      • url (cadena, obligatoria): URL para obtener

Instalación

Opcionalmente: instale node.js, esto hará que el servidor de búsqueda utilice un simplificador HTML diferente que es más robusto.

Uso de uv (recomendado)

Al usar uv no se requiere ninguna instalación específica. Usaremos uvx para ejecutar directamente mcp-server-fetch .

Uso de PIP

Alternativamente, puede instalar mcp-server-fetch a través de pip:

pip install mcp-server-fetch
One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Tools

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ExactDoug/mcp-fetch'

If you have feedback or need assistance with the MCP directory API, please join our Discord server