MCP File Reader
MCP-Dateileser
Ein vollständig lokaler, kostenloser KI-gestützter Dateileser, der das MCP (Model Context Protocol) verwendet, um einen Python-Tool-Server mit einem lokalen LLM (Ollama + Mistral) zu verbinden. Keine API-Schlüssel, keine Cloud, keine Kosten – läuft vollständig auf Ihrem Rechner.
🧾 Funktionen
MCP-Server mit benutzerdefinierten Tools (
list_files,read_file)Lokale LLM-Integration über Ollama (Mistral / Llama3.2)
Automatische Dateierkennung und Lesen von Inhalten
KI-gestützte Zusammenfassung von Dateiinhalten
Schutz vor Pfad-Traversal (integrierte Sicherheit)
Keine Kosten – keine API-Schlüssel oder Abonnements erforderlich
🛠️ Tech-Stack
Technologie | Beschreibung |
Python | Kernsprache für Server und Client |
MCP | Model Context Protocol (Tool-Server) |
Ollama | Lokale LLM-Laufzeitumgebung (kostenlos, offline) |
Mistral | Lokales KI-Modell für Zusammenfassungen |
asyncio | Asynchrone Kommunikation zwischen Client/Server |
requests | HTTP-Aufrufe an die Ollama-API |
📦 Installation
git clone https://github.com/JaneKarunyaJ/MCP-File-Reader.git
cd MCP-File-Reader
pip install mcp requestsInstallieren Sie Ollama von https://ollama.com und laden Sie dann das Modell herunter:
ollama pull mistral🚀 Verwendung
Stellen Sie sicher, dass Ollama läuft (es startet nach der Installation automatisch), und führen Sie dann Folgendes aus:
python client.pyDer Client wird:
Den MCP-Server als Subprozess starten
list_filesaufrufen, um Dateien inmy_files/zu entdeckenread_filefür jede gefundene Datei aufrufenDen tatsächlichen Inhalt zur Zusammenfassung an Mistral senden
📁 Projektstruktur
MCP-File-Reader/
│
├── server.py # MCP server — exposes list_files and read_file tools
├── client.py # MCP client — calls tools and queries Ollama
├── requirements.txt # Python dependencies
└── my_files/ # Folder the AI is allowed to read
├── project_ideas.txt
└── wishlist.txt🔐 Sicherheit
Der MCP-Server erlaubt nur Lesezugriffe aus dem Verzeichnis
my_files/Pfad-Traversal-Angriffe (z. B.
../../etc/passwd) werden automatisch blockiertKeine Daten verlassen Ihren Rechner – nach der Einrichtung vollständig offline
🧠 Funktionsweise
client.py
│
├── Step 1: Calls MCP tool → list_files()
│ ↓
│ Returns filenames from my_files/
│
├── Step 2: Calls MCP tool → read_file(filename)
│ ↓
│ Returns actual file contents
│
└── Step 3: Sends real content to Ollama (Mistral)
↓
Returns AI summary➕ Das Projekt erweitern
Eigene Dateien hinzufügen: Legen Sie eine beliebige
.txt-Datei inmy_files/ab und führen Sie das Programm erneut ausNeue Tools hinzufügen: Fügen Sie einen neuen Tool-Handler in
server.pyhinzu (z. B.search_in_file,write_file)Die Frage ändern: Bearbeiten Sie
user_questioninclient.py, um beliebige Fragen zu Ihren Dateien zu stellenDas Modell austauschen: Ändern Sie
MODEL = "mistral"inclient.pyin ein beliebiges Modell, das Sie in Ollama heruntergeladen haben
📋 Anforderungen
Python 3.9+
Ollama installiert (ollama.com)
Mistral-Modell heruntergeladen (
ollama pull mistral)mcpundrequestsPython-Pakete
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/JaneKarunyaJ/MCP'
If you have feedback or need assistance with the MCP directory API, please join our Discord server