MCP File Reader
Lector de archivos MCP
Un lector de archivos basado en IA, totalmente local y gratuito, que utiliza MCP (Model Context Protocol) para conectar un servidor de herramientas de Python con un LLM local (Ollama + Mistral). Sin claves API, sin nube, sin costes: se ejecuta completamente en tu máquina.
🧾 Características
Servidor MCP con herramientas personalizadas (
list_files,read_file)Integración de LLM local a través de Ollama (Mistral / Llama3.2)
Descubrimiento automático de archivos y lectura de contenido
Resumen de contenido de archivos mediante IA
Protección contra recorrido de rutas (seguridad integrada)
Coste cero: no requiere claves API ni suscripciones
🛠️ Stack tecnológico
Tecnología | Descripción |
Python | Lenguaje principal para servidor y cliente |
MCP | Protocolo de contexto de modelo (servidor de herramientas) |
Ollama | Entorno de ejecución de LLM local (gratuito, sin conexión) |
Mistral | Modelo de IA local para resúmenes |
asyncio | Comunicación asíncrona entre cliente/servidor |
requests | Llamadas HTTP a la API de Ollama |
📦 Instalación
git clone https://github.com/JaneKarunyaJ/MCP-File-Reader.git
cd MCP-File-Reader
pip install mcp requestsInstala Ollama desde https://ollama.com y, a continuación, descarga el modelo:
ollama pull mistral🚀 Uso
Asegúrate de que Ollama esté en ejecución (se inicia automáticamente tras la instalación) y, a continuación:
python client.pyEl cliente hará lo siguiente:
Iniciará el servidor MCP como un subproceso
Llamará a
list_filespara descubrir archivos enmy_files/Llamará a
read_filepara cada archivo encontradoEnviará el contenido real a Mistral para su resumen
📁 Estructura del proyecto
MCP-File-Reader/
│
├── server.py # MCP server — exposes list_files and read_file tools
├── client.py # MCP client — calls tools and queries Ollama
├── requirements.txt # Python dependencies
└── my_files/ # Folder the AI is allowed to read
├── project_ideas.txt
└── wishlist.txt🔐 Seguridad
El servidor MCP solo permite lecturas desde el directorio
my_files/Los ataques de recorrido de rutas (p. ej.,
../../etc/passwd) se bloquean automáticamenteNingún dato sale de tu máquina: totalmente sin conexión tras la configuración
🧠 Cómo funciona
client.py
│
├── Step 1: Calls MCP tool → list_files()
│ ↓
│ Returns filenames from my_files/
│
├── Step 2: Calls MCP tool → read_file(filename)
│ ↓
│ Returns actual file contents
│
└── Step 3: Sends real content to Ollama (Mistral)
↓
Returns AI summary➕ Ampliación del proyecto
Añade tus propios archivos: Coloca cualquier archivo
.txtenmy_files/y vuelve a ejecutarAñade nuevas herramientas: Añade un nuevo manejador de herramientas en
server.py(p. ej.,search_in_file,write_file)Cambia la pregunta: Edita
user_questionenclient.pypara preguntar cualquier cosa sobre tus archivosCambia el modelo: Cambia
MODEL = "mistral"enclient.pypor cualquier modelo que hayas descargado en Ollama
📋 Requisitos
Python 3.9+
Ollama instalado (ollama.com)
Modelo Mistral descargado (
ollama pull mistral)Paquetes de Python
mcpyrequests
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/JaneKarunyaJ/MCP'
If you have feedback or need assistance with the MCP directory API, please join our Discord server