Skip to main content
Glama

LlamaCloud MCP Server

by run-llama

Servidor MCP de LlamaCloud

Un servidor MCP que se conecta a múltiples índices administrados en LlamaCloud

Este es un servidor MCP basado en TypeScript que crea múltiples herramientas, cada una conectada a un índice administrado específico en LlamaCloud. Cada herramienta se define mediante argumentos de línea de comandos.

Características

Herramientas

  • Crea una herramienta independiente para cada índice que defina
  • Cada herramienta proporciona un parámetro query para buscar en su índice específico
  • Genera automáticamente nombres de herramientas como get_information_index_name según los nombres de índice

Instalación

Para utilizarlo con su cliente MCP (por ejemplo, Claude Desktop, Windsurf o Cursor), agregue la siguiente configuración a la configuración de su cliente MCP:

{ "mcpServers": { "llamacloud": { "command": "npx", "args": [ "-y", "@llamaindex/mcp-server-llamacloud", "--index", "10k-SEC-Tesla", "--description", "10k SEC documents from 2023 for Tesla", "--index", "10k-SEC-Apple", "--description", "10k SEC documents from 2023 for Apple" ], "env": { "LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>", "LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>" } } } }

Para Claude, la configuración de MCP se puede encontrar en:

  • En MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • En Windows: %APPDATA%/Claude/claude_desktop_config.json

Formato de definición de herramienta

En la matriz args de la configuración de MCP, se pueden definir varias herramientas proporcionando pares de argumentos --index y --description . Cada par define una nueva herramienta.

Por ejemplo:

--index "10k-SEC-Tesla" --description "10k SEC documents from 2023 for Tesla"

Agrega una herramienta para el índice LlamaCloud 10k-SEC-Tesla al servidor MCP.

Desarrollo

Instalar dependencias:

npm install

Construir el servidor:

npm run build

Para desarrollo con reconstrucción automática:

npm run watch

Para utilizar la versión de desarrollo, reemplace en su configuración de MCP npx @llamaindex/mcp-server-llamacloud con node ./build/index.js .

Depuración

Dado que los servidores MCP se comunican a través de stdio, la depuración puede ser complicada. Recomendamos usar el Inspector MCP , disponible como script de paquete:

npm run inspector

El Inspector proporcionará una URL para acceder a las herramientas de depuración en su navegador.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor MCP que se conecta a un índice administrado en LlamaCloud . Este servidor MCP está basado en TypeScript y implementa una conexión a un índice administrado en LlamaCloud.

  1. Características
    1. Herramientas
  2. Instalación
    1. Formato de definición de herramienta
  3. Desarrollo
    1. Depuración

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    An MCP server implementation that integrates the Tavily Search API, providing optimized search capabilities for LLMs.
    Last updated -
    1
    2
    TypeScript
    MIT License
    • Apple
  • -
    security
    F
    license
    -
    quality
    A MCP server that exposes OpenAPI schema information to LLMs like Claude. This server allows an LLM to explore and understand large OpenAPI schemas through a set of specialized tools, without needing to load the whole schema into the context
    Last updated -
    58
    35
    JavaScript
    • Apple
    • Linux
  • -
    security
    F
    license
    -
    quality
    An MCP server that fetches real-time documentation for popular libraries like Langchain, Llama-Index, MCP, and OpenAI, allowing LLMs to access updated library information beyond their knowledge cut-off dates.
    Last updated -
    2
    Python
  • A
    security
    F
    license
    A
    quality
    A lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.
    Last updated -
    6
    545
    Python

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/run-llama/mcp-server-llamacloud'

If you have feedback or need assistance with the MCP directory API, please join our Discord server