Lector mcp-jinaai
⚠️ Aviso
Este repositorio ya no se mantiene.
La funcionalidad de esta herramienta ahora está disponible en mcp-omnisearch , que combina múltiples herramientas MCP en un paquete unificado.
Utilice mcp-omnisearch en su lugar.
Un servidor de Protocolo de Contexto de Modelo (MCP) para integrar la API de Lector de Jina.ai con LLM. Este servidor proporciona capacidades de extracción de contenido web eficientes y completas, optimizadas para la documentación y el análisis de contenido web.
Características
- Extracción avanzada de contenido web a través de la API del lector Jina.ai
- 🚀 Recuperación de contenido rápida y eficiente
- 📄 Extracción de texto completa con estructura preservada
- Formato limpio optimizado para LLM
- 🌐 Soporte para varios tipos de contenido, incluida documentación
- 🏗️ Construido sobre el Protocolo de Contexto Modelo
Configuración
Este servidor requiere configuración a través de su cliente MCP. A continuación, se muestran ejemplos para diferentes entornos:
Configuración de Cline
Agregue esto a su configuración de Cline MCP:
Escritorio Claude con configuración WSL
Para entornos WSL, agregue esto a su configuración de Claude Desktop:
Variables de entorno
El servidor requiere la siguiente variable de entorno:
JINAAI_API_KEY
: Su clave API de Jina.ai (obligatoria)
API
El servidor implementa una única herramienta MCP con parámetros configurables:
leer_url
Convierta cualquier URL en texto compatible con LLM utilizando Jina.ai Reader.
Parámetros:
url
(cadena, obligatoria): URL a procesarno_cache
(booleano, opcional): Omite la caché para resultados actualizados. El valor predeterminado es falso.format
(cadena, opcional): Formato de respuesta ("json" o "stream"). El valor predeterminado es "json".timeout
(número, opcional): tiempo máximo en segundos para esperar la carga de la página webtarget_selector
(cadena, opcional): selector CSS para centrarse en elementos específicoswait_for_selector
(cadena, opcional): selector CSS para esperar elementos específicosremove_selector
(cadena, opcional): selector CSS para excluir elementos específicoswith_links_summary
(booleano, opcional): Recopilar todos los enlaces al final de la respuestawith_images_summary
(booleano, opcional): Recopilar todas las imágenes al final de la respuestawith_generated_alt
(booleano, opcional): agrega texto alternativo a las imágenes que no tienen subtítuloswith_iframe
(booleano, opcional): incluye contenido iframe en la respuesta
Desarrollo
Configuración
- Clonar el repositorio
- Instalar dependencias:
- Construir el proyecto:
- Ejecutar en modo de desarrollo:
Publicación
- Actualizar la versión en package.json
- Construir el proyecto:
- Publicar en npm:
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
Licencia
Licencia MIT: consulte el archivo LICENCIA para obtener más detalles.
Expresiones de gratitud
- Construido sobre el Protocolo de Contexto Modelo
- Desarrollado por la API del lector Jina.ai
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Tools
Integra la API de lectura de Jina.ai con LLM para una extracción de contenido web eficiente y estructurada, optimizada para la documentación y el análisis de contenido web.
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityAn MCP server that provides access to Jina AI's powerful web services (page reading, web search, fact checking) through Claude.Last updated -318912JavaScriptMIT License
- AsecurityAlicenseAqualityEnables efficient web search integration with Jina.ai's Search API, offering clean, LLM-optimized content retrieval with support for various content types and configurable caching.Last updated -1223JavaScriptMIT License
- AsecurityAlicenseAqualityIntegrates Jina.ai's Grounding API with LLMs for real-time, fact-based web content grounding and analysis, enhancing LLM responses with precise, verified information.Last updated -162JavaScriptMIT License
- -securityFlicense-qualityEnables LLMs to perform sophisticated web searches through proxy servers using Tavily's API, supporting comprehensive web searches, direct question answering, and recent news article retrieval with AI-extracted content.Last updated -1Python