hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Converts arXiv PDF documents to markdown format, with support for table extraction and image extraction from the documents.
Integrates with Llama Stack (hosted on GitHub) to provide document processing capabilities to LLM applications built with the Llama Stack framework.
Converts various document formats to markdown, with support for embedded images extraction and OCR capabilities for scanned documents.
Servidor de acoplamiento MCP
Un servidor MCP que proporciona capacidades de procesamiento de documentos utilizando la biblioteca Docling.
Instalación
Puedes instalar el paquete usando pip:
Uso
Inicie el servidor utilizando stdio (predeterminado) o el transporte SSE:
Si está usando uv, puede ejecutar el servidor directamente sin instalar:
Herramientas disponibles
El servidor expone las siguientes herramientas:
- convert_document : Convierte un documento desde una URL o ruta local al formato Markdown
source
: URL o ruta del archivo local del documento (obligatorio)enable_ocr
: si se debe habilitar el OCR para documentos escaneados (opcional, valor predeterminado: falso)ocr_language
: lista de códigos de idioma para OCR, p. ej., ["en", "fr"] (opcional)
- convert_document_with_images : Convertir un documento y extraer imágenes incrustadas
source
: URL o ruta del archivo local del documento (obligatorio)enable_ocr
: si se debe habilitar el OCR para documentos escaneados (opcional, valor predeterminado: falso)ocr_language
: Lista de códigos de idioma para OCR (opcional)
- extract_tables : Extrae tablas de un documento como datos estructurados
source
: URL o ruta del archivo local del documento (obligatorio)
- convert_batch : Procesar múltiples documentos en modo por lotes
sources
: Lista de URL o rutas de archivos a documentos (obligatorio)enable_ocr
: si se debe habilitar el OCR para documentos escaneados (opcional, valor predeterminado: falso)ocr_language
: Lista de códigos de idioma para OCR (opcional)
- qna_from_document : Crea un documento de preguntas y respuestas desde una URL o ruta local al formato YAML
source
: URL o ruta del archivo local del documento (obligatorio)no_of_qnas
: Número de preguntas y respuestas esperadas (opcional, predeterminado: 5)- Nota : Esta herramienta requiere que las credenciales de IBM Watson X se configuren como variables de entorno:
WATSONX_PROJECT_ID
: Su ID de proyecto Watson XWATSONX_APIKEY
: Su clave de API de IBM CloudWATSONX_URL
: la URL de la API Watson X (predeterminada: https://us-south.ml.cloud.ibm.com )
- get_system_info : Obtener información sobre la configuración del sistema y el estado de la aceleración
Ejemplo con Llama Stack
https://github.com/user-attachments/assets/8ad34e50-cbf7-4ec8-aedd-71c42a5de0a1
Puede usar este servidor con Llama Stack para proporcionar capacidades de procesamiento de documentos a sus aplicaciones LLM. Asegúrese de tener un servidor Llama Stack en ejecución y luego configure su INFERENCE_MODEL
Almacenamiento en caché
El servidor almacena en caché los documentos procesados en ~/.cache/mcp-docling/
para mejorar el rendimiento de las solicitudes repetidas.
This server cannot be installed
Un servidor que proporciona capacidades de procesamiento de documentos utilizando el Protocolo de Contexto de Modelo, permitiendo la conversión de documentos a Markdown, la extracción de tablas y el procesamiento de imágenes de documentos.