Skip to main content
Glama
run-llama

LlamaCloud MCP Server

by run-llama

LlamaCloud MCP-Server

Ein MCP-Server, der eine Verbindung zu mehreren verwalteten Indizes auf LlamaCloud herstellt

Dies ist ein TypeScript-basierter MCP-Server, der mehrere Tools erstellt, die jeweils mit einem bestimmten verwalteten Index in LlamaCloud verbunden sind. Jedes Tool wird über Befehlszeilenargumente definiert.

Merkmale

Werkzeuge

  • Erstellt für jeden von Ihnen definierten Index ein separates Tool

  • Jedes Tool bietet einen query zum Durchsuchen seines spezifischen Index

  • Generiert automatisch Toolnamen wie get_information_index_name basierend auf Indexnamen

Related MCP server: Just Prompt

Installation

Zur Verwendung mit Ihrem MCP-Client (z. B. Claude Desktop, Windsurf oder Cursor) fügen Sie Ihrer MCP-Client-Konfiguration die folgende Konfiguration hinzu:

{
  "mcpServers": {
    "llamacloud": {
      "command": "npx",
      "args": [
        "-y",
        "@llamaindex/mcp-server-llamacloud",
        "--index",
        "10k-SEC-Tesla",
        "--description",
        "10k SEC documents from 2023 for Tesla",
        "--index",
        "10k-SEC-Apple",
        "--description",
        "10k SEC documents from 2023 for Apple"
      ],
      "env": {
        "LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>",
        "LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
      }
    }
  }
}

Für Claude ist die MCP-Konfiguration unter folgender Adresse zu finden:

  • Unter MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json

  • Unter Windows: %APPDATA%/Claude/claude_desktop_config.json

Werkzeugdefinitionsformat

Im Array args der MCP-Konfiguration können Sie mehrere Tools definieren, indem Sie Paare aus den Argumenten --index und --description angeben. Jedes Paar definiert ein neues Tool.

Zum Beispiel:

--index "10k-SEC-Tesla" --description "10k SEC documents from 2023 for Tesla"

Fügt dem MCP-Server ein Tool für den 10k-SEC-Tesla LlamaCloud-Index hinzu.

Entwicklung

Installieren Sie Abhängigkeiten:

npm install

Erstellen Sie den Server:

npm run build

Für die Entwicklung mit automatischem Rebuild:

npm run watch

Um die Entwicklungsversion zu verwenden, ersetzen Sie in Ihrer MCP-Konfiguration npx @llamaindex/mcp-server-llamacloud durch node ./build/index.js .

Debuggen

Da MCP-Server über stdio kommunizieren, kann das Debuggen eine Herausforderung darstellen. Wir empfehlen die Verwendung des MCP Inspector , der als Paketskript verfügbar ist:

npm run inspector

Der Inspector stellt eine URL für den Zugriff auf Debugging-Tools in Ihrem Browser bereit.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/run-llama/mcp-server-llamacloud'

If you have feedback or need assistance with the MCP directory API, please join our Discord server