Этот проект подключает локального LLM (например, Qwen) к таким инструментам, как калькулятор или база знаний, через протокол MCP . Помощник автоматически обнаруживает и вызывает эти инструменты, чтобы помочь ответить на запросы пользователя.
📦 Особенности
🔧 Выполнение инструмента через сервер MCP
🧠 Локальная интеграция LLM через HTTP или OpenAI SDK
📚 Поддержка базы знаний (
data.json
)⚡ Поддерживает транспорты
stdio
иsse
🗂 Файлы проекта
Файл | Описание |
| Регистрирует инструменты и запускает сервер MCP |
| Использует
для связи с локальным LLM |
| Использует совместимый с OpenAI SDK для LLM + логику вызова инструментов |
| Клиент MCP, использующий stdio |
| Клиент MCP с использованием SSE |
| База знаний вопросов и ответов |
📥 Установка
Требования
Питон 3.8+
Установить зависимости:
requirements.txt
🚀 Начало работы
1. Запустите MCP-сервер
Это запустит ваш сервер инструментов с такими функциями, как add
, multiply
и get_knowledge_base
.
2. Запустить клиент
Вариант A: HTTP-клиент (локальный LLM через необработанный API)
Вариант B: клиент OpenAI SDK
Вариант C: стандартный транспорт
Вариант D: транспорт SSE
Убедитесь, что server.py
устанавливает:
Затем выполните:
💬 Примеры подсказок
Вызов математического инструмента
Ответ:
Вопрос базы знаний
Ответ будет включать соответствующий ответ из data.json
.
📁 Пример: data.json
🔧 Конфигурация
Внутри client-http.py
или clientopenai.py
обновите следующее:
Убедитесь, что ваш LLM обслуживает конечные точки API, совместимые с OpenAI.
🧹 Уборка
Клиенты обрабатывают вызовы и ответы инструментов автоматически. Вы можете остановить сервер или клиента с помощью Ctrl+C
.
🪪 Лицензия
Лицензия MIT. См. файл LICENSE .
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Подключает локальных LLM к внешним инструментам (калькулятору, базе знаний) через протокол MCP, обеспечивая автоматическое обнаружение и выполнение инструментов для улучшения ответов на запросы.
Related MCP Servers
- -securityFlicense-qualityAn MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.Last updated -10
- -securityFlicense-qualityA customized MCP server that enables integration between LLM applications and documentation sources, providing AI-assisted access to LangGraph and Model Context Protocol documentation.Last updated -1
- -securityAlicense-qualityA tool server that processes mathematical expressions via Multi-Chain Protocol (MCP), allowing LLMs to solve math problems through tool integration.Last updated -MIT License
- -securityFlicense-qualityA tool that connects to local MySQL databases and enables large language models (LLMs) to execute SQL queries through the Model Context Protocol (MCP).Last updated -2881