Skip to main content
Glama

mcp-local-rag

„primitiver“ RAG-ähnlicher Web Search Model Context Protocol (MCP)-Server, der lokal ausgeführt wird. ✨ keine APIs ✨

%%{init: {'theme': 'base'}}%% flowchart TD A[User] -->|1.Submits LLM Query| B[Language Model] B -->|2.Sends Query| C[mcp-local-rag Tool] subgraph mcp-local-rag Processing C -->|Search DuckDuckGo| D[Fetch 10 search results] D -->|Fetch Embeddings| E[Embeddings from Google's MediaPipe Text Embedder] E -->|Compute Similarity| F[Rank Entries Against Query] F -->|Select top k results| G[Context Extraction from URL] end G -->|Returns Markdown from HTML content| B B -->|3.Generated response with context| H[Final LLM Output] H -->|5.Present result to user| A classDef default stroke:#333,stroke-width:2px; classDef process stroke:#333,stroke-width:2px; classDef input stroke:#333,stroke-width:2px; classDef output stroke:#333,stroke-width:2px; class A input; class B,C process; class G output;

Installation

Suchen Sie hier Ihren MCP-Konfigurationspfad oder überprüfen Sie Ihre MCP-Clienteinstellungen.

Direkt über uvx ausführen

Dies ist die einfachste und schnellste Methode. Sie müssen uv installieren, damit dies funktioniert. Fügen Sie Folgendes zu Ihrer MCP-Serverkonfiguration hinzu:

{ "mcpServers": { "mcp-local-rag":{ "command": "uvx", "args": [ "--python=3.10", "--from", "git+https://github.com/nkapila6/mcp-local-rag", "mcp-local-rag" ] } } }

Verwendung von Docker (empfohlen)

Stellen Sie sicher, dass Docker installiert ist. Fügen Sie Folgendes zu Ihrer MCP-Serverkonfiguration hinzu:

{ "mcpServers": { "mcp-local-rag": { "command": "docker", "args": [ "run", "--rm", "-i", "--init", "-e", "DOCKER_CONTAINER=true", "ghcr.io/nkapila6/mcp-local-rag:latest" ] } } }

Sicherheitsüberprüfungen

MseeP führt Sicherheitsprüfungen auf jedem MCP-Server durch. Sie können die Sicherheitsprüfung dieses MCP-Servers anzeigen, indem Sie hier klicken.

MCP-Kunden

Der MCP-Server sollte mit jedem MCP-Client funktionieren, der Tool-Aufrufe unterstützt. Wurde auf den folgenden Clients getestet.

  • Claude Desktop

  • Cursor

  • Gans

  • Andere? Versuchs doch!

Beispiele auf Claude Desktop

Wenn einem LLM (wie Claude) eine Frage gestellt wird, die aktuelle Webinformationen erfordert, wird mcp-local-rag ausgelöst.

Wenn Sie aufgefordert werden, das Web abzurufen/nachzuschlagen/zu durchsuchen, fordert das Modell Sie auf, den MCP-Server für den Chat zu verwenden.

Im Beispiel habe ich nach den gestern veröffentlichten neuesten Gemma-Modellen von Google gefragt. Dies sind neue Informationen, die Claude nicht kennt.

Ergebnis

mcp-local-rag führt eine Live-Websuche durch, extrahiert den Kontext und sendet ihn an das Modell zurück, um ihm neues Wissen zu vermitteln:

Beitragen

Haben Sie Ideen oder möchten Sie dieses Projekt verbessern? Probleme und Pull Requests sind willkommen!

Lizenz

Dieses Projekt ist unter der MIT-Lizenz lizenziert.

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/nkapila6/mcp-local-rag'

If you have feedback or need assistance with the MCP directory API, please join our Discord server