scraperapi-mcp-server
OfficialServidor MCP de ScraperAPI
El servidor MCP de ScraperAPI permite a los clientes LLM recuperar y procesar solicitudes de web scraping utilizando los servicios de ScraperAPI.
Tabla de contenidos
Características
Implementación completa de la especificación del Protocolo de Contexto de Modelo (MCP)
Integración perfecta con ScraperAPI para web scraping
Configuración sencilla con Python o Docker
Arquitectura
┌───────────────┐ ┌───────────────────────┐ ┌───────────────┐
│ LLM Client │────▶│ Scraper MCP Server │────▶│ AI Model │
└───────────────┘ └───────────────────────┘ └───────────────┘
│
▼
┌──────────────────┐
│ ScraperAPI API │
└──────────────────┘Instalación
El servidor MCP de ScraperAPI está diseñado para ejecutarse como un servidor local en su máquina; su cliente LLM lo iniciará automáticamente cuando esté configurado.
Requisitos previos
Python 3.11+
Docker (opcional)
Usando Python
Instale el paquete:
pip install scraperapi-mcp-serverAñada esto a su archivo de configuración del cliente:
{
"mcpServers": {
"ScraperAPI": {
"command": "python",
"args": ["-m", "scraperapi_mcp_server"],
"env": {
"API_KEY": "<YOUR_SCRAPERAPI_API_KEY>"
}
}
}
}Usando Docker
Añada esto a su archivo de configuración del cliente:
{
"mcpServers": {
"ScraperAPI": {
"command": "docker",
"args": [
"run",
"-i",
"-e",
"API_KEY=${API_KEY}",
"--rm",
"scraperapi-mcp-server"]
}
}
}Si su comando no funciona (por ejemplo, si ve un error de package not found al intentar iniciar el servidor), verifique la ruta que está utilizando. Para encontrar la ruta correcta, active primero su entorno virtual y luego ejecute:
which <YOUR_COMMAND>Referencia de la API
Herramientas disponibles
scrapeExtraer una URL de Internet usando ScraperAPI
Parámetros:
url(string, requerido): URL a extraerrender(boolean, opcional): Si se debe renderizar la página usando JavaScript. El valor predeterminado esFalse. Establézcalo enTruesolo si la página requiere renderizado de JavaScript para mostrar su contenido.country_code(string, opcional): Activar la segmentación geográfica por país (código ISO de 2 letras)premium(boolean, opcional): Activar proxies residenciales y móviles premiumultra_premium(boolean, opcional): Activar mecanismos avanzados de omisión. No se puede combinar conpremiumdevice_type(string, opcional): Configurar la solicitud para usar agentes de usuariomobileodesktopoutput_format(string, opcional): Le permite indicar a la API cuál debe ser el tipo de archivo de respuesta.autoparse(boolean, opcional): Activar el análisis automático para sitios web seleccionados. El valor predeterminado esFalse. Establézcalo enTruesolo si desea que el formato de salida seacsvojson.
Devuelve: El contenido extraído como una cadena
Plantillas de prompts
Por favor, extrae esta URL
<URL>. Si recibes un error de servidor 500, identifica la segmentación geográfica del sitio web y añade elcountry_codecorrespondiente para superar las restricciones geográficas. Si los errores continúan, actualiza la solicitud para usar proxies premium añadiendo premium=true. Para fallos persistentes, activa ultra_premium=true para usar medidas anti-bloqueo mejoradas.¿Puedes extraer la URL
<URL>para obtener<SPECIFIC_DATA>? Si la solicitud devuelve<SPECIFIC_DATA>faltante o incompleta, establece render=true para habilitar el renderizado JS.
Configuración
Ajustes
API_KEY: Su clave de API de ScraperAPI.
Configurar la aplicación Claude Desktop y Claude Code
Claude Desktop:
Abra Claude Desktop y haga clic en el icono de configuración
Seleccione la pestaña "Developer"
Haga clic en "Edit Config" y pegue el archivo de configuración JSON
Claude Code:
Añada el servidor manualmente a su
.claude/settings.jsoncon el archivo de configuración JSON, o ejecute:claude mcp add scraperapi -e API_KEY=<YOUR_SCRAPERAPI_API_KEY> -- python -m scraperapi_mcp_server
Configurar el editor Cursor
Abra Cursor
Acceda al menú de configuración (Settings)
Abra la configuración de Cursor
Vaya a la sección Tools & Integrations
Haga clic en '+ Add MCP Server'
Elija Manual y pegue el archivo de configuración JSON
Más información aquí
Configurar el editor Windsurf
Abra Windsurf
Acceda al menú de configuración (Settings)
Haga clic en la configuración de Cascade
Haga clic en la sección del servidor MCP
Haga clic en el icono del engranaje, se abrirá el archivo
mcp_config.json
Más información aquí
Configurar Cline (extensión de VS Code)
Abra VS Code y haga clic en el icono de Cline en la barra de actividades para abrir el panel de Cline
Haga clic en el icono de servidores MCP en la barra de navegación superior del panel de Cline
Seleccione la pestaña "Configure"
Haga clic en "Configure MCP Servers" en la parte inferior del panel; esto abrirá
cline_mcp_settings.json
Más información aquí
Desarrollo
Configuración local
Clonar el repositorio:
git clone https://github.com/scraperapi/scraperapi-mcp cd scraperapi-mcpInstalar dependencias:
Usando Poetry:
poetry installUsando pip:
# Create virtual environment and activate it python -m venv .venv source .venv/bin/activate # MacOS/Linux # OR .venv/Scripts/activate # Windows # Install the local package in editable mode pip install -e .Usando Docker:
# Build the Docker image locally docker build -t scraperapi-mcp-server .
Ejecutar el servidor
Usando Python:
python -m scraperapi_mcp_serverUsando Docker:
# Run the Docker container with your API key docker run -e API_KEY=<YOUR_SCRAPERAPI_API_KEY> scraperapi-mcp-server
Depuración
python3 -m scraperapi_mcp_server --debugPruebas
Este proyecto utiliza pytest para las pruebas.
Instalar dependencias de prueba
Usando Poetry:
poetry install --with devUsando pip:
pip install -e . pip install pytest pytest-mock pytest-asyncio
Ejecutar pruebas
# Run All Tests
pytest
# Run Specific Test
pytest <TEST_FILE_PATH>Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/scraperapi/scraperapi-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server