Этот проект подключает локального LLM (например, Qwen) к таким инструментам, как калькулятор или база знаний, через протокол MCP . Помощник автоматически обнаруживает и вызывает эти инструменты, чтобы помочь ответить на запросы пользователя.
📦 Особенности
🔧 Выполнение инструмента через сервер MCP
🧠 Локальная интеграция LLM через HTTP или OpenAI SDK
📚 Поддержка базы знаний (
data.json)⚡ Поддерживает транспорты
stdioиsse
Related MCP server: MCP Documentation Server
🗂 Файлы проекта
Файл | Описание |
| Регистрирует инструменты и запускает сервер MCP |
| Использует
для связи с локальным LLM |
| Использует совместимый с OpenAI SDK для LLM + логику вызова инструментов |
| Клиент MCP, использующий stdio |
| Клиент MCP с использованием SSE |
| База знаний вопросов и ответов |
📥 Установка
Требования
Питон 3.8+
Установить зависимости:
requirements.txt
🚀 Начало работы
1. Запустите MCP-сервер
Это запустит ваш сервер инструментов с такими функциями, как add , multiply и get_knowledge_base .
2. Запустить клиент
Вариант A: HTTP-клиент (локальный LLM через необработанный API)
Вариант B: клиент OpenAI SDK
Вариант C: стандартный транспорт
Вариант D: транспорт SSE
Убедитесь, что server.py устанавливает:
Затем выполните:
💬 Примеры подсказок
Вызов математического инструмента
Ответ:
Вопрос базы знаний
Ответ будет включать соответствующий ответ из data.json .
📁 Пример: data.json
🔧 Конфигурация
Внутри client-http.py или clientopenai.py обновите следующее:
Убедитесь, что ваш LLM обслуживает конечные точки API, совместимые с OpenAI.
🧹 Уборка
Клиенты обрабатывают вызовы и ответы инструментов автоматически. Вы можете остановить сервер или клиента с помощью Ctrl+C .
🪪 Лицензия
Лицензия MIT. См. файл LICENSE .