Skip to main content
Glama

MCP-Dateileser

Ein vollständig lokaler, kostenloser KI-gestützter Dateileser, der das MCP (Model Context Protocol) verwendet, um einen Python-Tool-Server mit einem lokalen LLM (Ollama + Mistral) zu verbinden. Keine API-Schlüssel, keine Cloud, keine Kosten – läuft vollständig auf Ihrem Rechner.

🧾 Funktionen

  • MCP-Server mit benutzerdefinierten Tools (list_files, read_file)

  • Lokale LLM-Integration über Ollama (Mistral / Llama3.2)

  • Automatische Dateierkennung und Lesen von Inhalten

  • KI-gestützte Zusammenfassung von Dateiinhalten

  • Schutz vor Pfad-Traversal (integrierte Sicherheit)

  • Keine Kosten – keine API-Schlüssel oder Abonnements erforderlich

🛠️ Tech-Stack

Technologie

Beschreibung

Python

Kernsprache für Server und Client

MCP

Model Context Protocol (Tool-Server)

Ollama

Lokale LLM-Laufzeitumgebung (kostenlos, offline)

Mistral

Lokales KI-Modell für Zusammenfassungen

asyncio

Asynchrone Kommunikation zwischen Client/Server

requests

HTTP-Aufrufe an die Ollama-API

📦 Installation

git clone https://github.com/JaneKarunyaJ/MCP-File-Reader.git
cd MCP-File-Reader
pip install mcp requests

Installieren Sie Ollama von https://ollama.com und laden Sie dann das Modell herunter:

ollama pull mistral

🚀 Verwendung

Stellen Sie sicher, dass Ollama läuft (es startet nach der Installation automatisch), und führen Sie dann Folgendes aus:

python client.py

Der Client wird:

  1. Den MCP-Server als Subprozess starten

  2. list_files aufrufen, um Dateien in my_files/ zu entdecken

  3. read_file für jede gefundene Datei aufrufen

  4. Den tatsächlichen Inhalt zur Zusammenfassung an Mistral senden

📁 Projektstruktur

MCP-File-Reader/
│
├── server.py          # MCP server — exposes list_files and read_file tools
├── client.py          # MCP client — calls tools and queries Ollama
├── requirements.txt   # Python dependencies
└── my_files/          # Folder the AI is allowed to read
    ├── project_ideas.txt
    └── wishlist.txt

🔐 Sicherheit

  • Der MCP-Server erlaubt nur Lesezugriffe aus dem Verzeichnis my_files/

  • Pfad-Traversal-Angriffe (z. B. ../../etc/passwd) werden automatisch blockiert

  • Keine Daten verlassen Ihren Rechner – nach der Einrichtung vollständig offline

🧠 Funktionsweise

client.py
   │
   ├── Step 1: Calls MCP tool → list_files()
   │              ↓
   │         Returns filenames from my_files/
   │
   ├── Step 2: Calls MCP tool → read_file(filename)
   │              ↓
   │         Returns actual file contents
   │
   └── Step 3: Sends real content to Ollama (Mistral)
                  ↓
             Returns AI summary

➕ Das Projekt erweitern

  • Eigene Dateien hinzufügen: Legen Sie eine beliebige .txt-Datei in my_files/ ab und führen Sie das Programm erneut aus

  • Neue Tools hinzufügen: Fügen Sie einen neuen Tool-Handler in server.py hinzu (z. B. search_in_file, write_file)

  • Die Frage ändern: Bearbeiten Sie user_question in client.py, um beliebige Fragen zu Ihren Dateien zu stellen

  • Das Modell austauschen: Ändern Sie MODEL = "mistral" in client.py in ein beliebiges Modell, das Sie in Ollama heruntergeladen haben

📋 Anforderungen

  • Python 3.9+

  • Ollama installiert (ollama.com)

  • Mistral-Modell heruntergeladen (ollama pull mistral)

  • mcp und requests Python-Pakete

-
security - not tested
F
license - not found
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JaneKarunyaJ/MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server