MCP File Reader
MCP File Reader
Полностью локальное бесплатное устройство для чтения файлов на базе ИИ, которое использует MCP (Model Context Protocol) для соединения сервера инструментов на Python с локальной LLM (Ollama + Mistral). Никаких API-ключей, никакого облака, никаких затрат — работает полностью на вашем компьютере.
🧾 Функции
MCP-сервер с пользовательскими инструментами (
list_files,read_file)Интеграция с локальной LLM через Ollama (Mistral / Llama3.2)
Автоматическое обнаружение файлов и чтение содержимого
Создание резюме содержимого файлов с помощью ИИ
Защита от обхода путей (встроенная безопасность)
Нулевая стоимость — не требуются API-ключи или подписки
🛠️ Технологический стек
Технология | Описание |
Python | Основной язык для сервера и клиента |
MCP | Model Context Protocol (сервер инструментов) |
Ollama | Среда выполнения локальной LLM (бесплатно, офлайн) |
Mistral | Локальная ИИ-модель для создания резюме |
asyncio | Асинхронная связь между клиентом и сервером |
requests | HTTP-запросы к API Ollama |
📦 Установка
git clone https://github.com/JaneKarunyaJ/MCP-File-Reader.git
cd MCP-File-Reader
pip install mcp requestsУстановите Ollama с сайта https://ollama.com, затем загрузите модель:
ollama pull mistral🚀 Использование
Убедитесь, что Ollama запущена (она запускается автоматически после установки), затем:
python client.pyКлиент выполнит следующие действия:
Запустит MCP-сервер как подпроцесс
Вызовет
list_filesдля обнаружения файлов вmy_files/Вызовет
read_fileдля каждого найденного файлаОтправит реальное содержимое в Mistral для создания резюме
📁 Структура проекта
MCP-File-Reader/
│
├── server.py # MCP server — exposes list_files and read_file tools
├── client.py # MCP client — calls tools and queries Ollama
├── requirements.txt # Python dependencies
└── my_files/ # Folder the AI is allowed to read
├── project_ideas.txt
└── wishlist.txt🔐 Безопасность
MCP-сервер разрешает чтение только из каталога
my_files/Атаки с обходом путей (например,
../../etc/passwd) автоматически блокируютсяНикакие данные не покидают ваш компьютер — полная автономность после настройки
🧠 Как это работает
client.py
│
├── Step 1: Calls MCP tool → list_files()
│ ↓
│ Returns filenames from my_files/
│
├── Step 2: Calls MCP tool → read_file(filename)
│ ↓
│ Returns actual file contents
│
└── Step 3: Sends real content to Ollama (Mistral)
↓
Returns AI summary➕ Расширение проекта
Добавьте свои файлы: Поместите любой файл
.txtвmy_files/и запустите сноваДобавьте новые инструменты: Добавьте новый обработчик инструментов в
server.py(например,search_in_file,write_file)Измените вопрос: Отредактируйте
user_questionвclient.py, чтобы спросить что угодно о ваших файлахЗамените модель: Измените
MODEL = "mistral"вclient.pyна любую модель, которую вы загрузили в Ollama
📋 Требования
Python 3.9+
Установленная Ollama (ollama.com)
Загруженная модель Mistral (
ollama pull mistral)Пакеты Python
mcpиrequests
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/JaneKarunyaJ/MCP'
If you have feedback or need assistance with the MCP directory API, please join our Discord server