Skip to main content
Glama

MCP File Reader

Полностью локальное бесплатное устройство для чтения файлов на базе ИИ, которое использует MCP (Model Context Protocol) для соединения сервера инструментов на Python с локальной LLM (Ollama + Mistral). Никаких API-ключей, никакого облака, никаких затрат — работает полностью на вашем компьютере.

🧾 Функции

  • MCP-сервер с пользовательскими инструментами (list_files, read_file)

  • Интеграция с локальной LLM через Ollama (Mistral / Llama3.2)

  • Автоматическое обнаружение файлов и чтение содержимого

  • Создание резюме содержимого файлов с помощью ИИ

  • Защита от обхода путей (встроенная безопасность)

  • Нулевая стоимость — не требуются API-ключи или подписки

🛠️ Технологический стек

Технология

Описание

Python

Основной язык для сервера и клиента

MCP

Model Context Protocol (сервер инструментов)

Ollama

Среда выполнения локальной LLM (бесплатно, офлайн)

Mistral

Локальная ИИ-модель для создания резюме

asyncio

Асинхронная связь между клиентом и сервером

requests

HTTP-запросы к API Ollama

📦 Установка

git clone https://github.com/JaneKarunyaJ/MCP-File-Reader.git
cd MCP-File-Reader
pip install mcp requests

Установите Ollama с сайта https://ollama.com, затем загрузите модель:

ollama pull mistral

🚀 Использование

Убедитесь, что Ollama запущена (она запускается автоматически после установки), затем:

python client.py

Клиент выполнит следующие действия:

  1. Запустит MCP-сервер как подпроцесс

  2. Вызовет list_files для обнаружения файлов в my_files/

  3. Вызовет read_file для каждого найденного файла

  4. Отправит реальное содержимое в Mistral для создания резюме

📁 Структура проекта

MCP-File-Reader/
│
├── server.py          # MCP server — exposes list_files and read_file tools
├── client.py          # MCP client — calls tools and queries Ollama
├── requirements.txt   # Python dependencies
└── my_files/          # Folder the AI is allowed to read
    ├── project_ideas.txt
    └── wishlist.txt

🔐 Безопасность

  • MCP-сервер разрешает чтение только из каталога my_files/

  • Атаки с обходом путей (например, ../../etc/passwd) автоматически блокируются

  • Никакие данные не покидают ваш компьютер — полная автономность после настройки

🧠 Как это работает

client.py
   │
   ├── Step 1: Calls MCP tool → list_files()
   │              ↓
   │         Returns filenames from my_files/
   │
   ├── Step 2: Calls MCP tool → read_file(filename)
   │              ↓
   │         Returns actual file contents
   │
   └── Step 3: Sends real content to Ollama (Mistral)
                  ↓
             Returns AI summary

➕ Расширение проекта

  • Добавьте свои файлы: Поместите любой файл .txt в my_files/ и запустите снова

  • Добавьте новые инструменты: Добавьте новый обработчик инструментов в server.py (например, search_in_file, write_file)

  • Измените вопрос: Отредактируйте user_question в client.py, чтобы спросить что угодно о ваших файлах

  • Замените модель: Измените MODEL = "mistral" в client.py на любую модель, которую вы загрузили в Ollama

📋 Требования

  • Python 3.9+

  • Установленная Ollama (ollama.com)

  • Загруженная модель Mistral (ollama pull mistral)

  • Пакеты Python mcp и requests

-
security - not tested
F
license - not found
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JaneKarunyaJ/MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server