Skip to main content
Glama

LlamaCloud MCP Server

by run-llama

LlamaCloud MCP-Server

Ein MCP-Server, der eine Verbindung zu mehreren verwalteten Indizes auf LlamaCloud herstellt

Dies ist ein TypeScript-basierter MCP-Server, der mehrere Tools erstellt, die jeweils mit einem bestimmten verwalteten Index in LlamaCloud verbunden sind. Jedes Tool wird über Befehlszeilenargumente definiert.

Merkmale

Werkzeuge

  • Erstellt für jeden von Ihnen definierten Index ein separates Tool
  • Jedes Tool bietet einen query zum Durchsuchen seines spezifischen Index
  • Generiert automatisch Toolnamen wie get_information_index_name basierend auf Indexnamen

Installation

Zur Verwendung mit Ihrem MCP-Client (z. B. Claude Desktop, Windsurf oder Cursor) fügen Sie Ihrer MCP-Client-Konfiguration die folgende Konfiguration hinzu:

{ "mcpServers": { "llamacloud": { "command": "npx", "args": [ "-y", "@llamaindex/mcp-server-llamacloud", "--index", "10k-SEC-Tesla", "--description", "10k SEC documents from 2023 for Tesla", "--index", "10k-SEC-Apple", "--description", "10k SEC documents from 2023 for Apple" ], "env": { "LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>", "LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>" } } } }

Für Claude ist die MCP-Konfiguration unter folgender Adresse zu finden:

  • Unter MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Unter Windows: %APPDATA%/Claude/claude_desktop_config.json

Werkzeugdefinitionsformat

Im Array args der MCP-Konfiguration können Sie mehrere Tools definieren, indem Sie Paare aus den Argumenten --index und --description angeben. Jedes Paar definiert ein neues Tool.

Zum Beispiel:

--index "10k-SEC-Tesla" --description "10k SEC documents from 2023 for Tesla"

Fügt dem MCP-Server ein Tool für den 10k-SEC-Tesla LlamaCloud-Index hinzu.

Entwicklung

Installieren Sie Abhängigkeiten:

npm install

Erstellen Sie den Server:

npm run build

Für die Entwicklung mit automatischem Rebuild:

npm run watch

Um die Entwicklungsversion zu verwenden, ersetzen Sie in Ihrer MCP-Konfiguration npx @llamaindex/mcp-server-llamacloud durch node ./build/index.js .

Debuggen

Da MCP-Server über stdio kommunizieren, kann das Debuggen eine Herausforderung darstellen. Wir empfehlen die Verwendung des MCP Inspector , der als Paketskript verfügbar ist:

npm run inspector

Der Inspector stellt eine URL für den Zugriff auf Debugging-Tools in Ihrem Browser bereit.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein MCP-Server, der eine Verbindung zu einem verwalteten Index auf LlamaCloud herstellt. Dies ist ein TypeScript-basierter MCP-Server, der eine Verbindung zu einem verwalteten Index auf LlamaCloud implementiert.

  1. Merkmale
    1. Werkzeuge
  2. Installation
    1. Werkzeugdefinitionsformat
  3. Entwicklung
    1. Debuggen

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    An MCP server implementation that integrates the Tavily Search API, providing optimized search capabilities for LLMs.
    Last updated -
    1
    TypeScript
    MIT License
    • Apple
  • -
    security
    F
    license
    -
    quality
    A MCP server that exposes OpenAPI schema information to LLMs like Claude. This server allows an LLM to explore and understand large OpenAPI schemas through a set of specialized tools, without needing to load the whole schema into the context
    Last updated -
    37
    5
    JavaScript
    • Apple
    • Linux
  • -
    security
    F
    license
    -
    quality
    An MCP server that fetches real-time documentation for popular libraries like Langchain, Llama-Index, MCP, and OpenAI, allowing LLMs to access updated library information beyond their knowledge cut-off dates.
    Last updated -
    Python
  • A
    security
    F
    license
    A
    quality
    A lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.
    Last updated -
    6
    491
    Python

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/run-llama/mcp-server-llamacloud'

If you have feedback or need assistance with the MCP directory API, please join our Discord server