Integrations
Этот проект подключает локального LLM (например, Qwen) к таким инструментам, как калькулятор или база знаний, через протокол MCP . Помощник автоматически обнаруживает и вызывает эти инструменты, чтобы помочь ответить на запросы пользователя.
📦 Особенности
- 🔧 Выполнение инструмента через сервер MCP
- 🧠 Локальная интеграция LLM через HTTP или OpenAI SDK
- 📚 Поддержка базы знаний (
data.json
) - ⚡ Поддерживает транспорты
stdio
иsse
🗂 Файлы проекта
Файл | Описание |
---|---|
server.py | Регистрирует инструменты и запускает сервер MCP |
client-http.py | Использует aiohttp для связи с локальным LLM |
clientopenai.py | Использует совместимый с OpenAI SDK для LLM + логику вызова инструментов |
client-stdio.py | Клиент MCP, использующий stdio |
client-see.py | Клиент MCP с использованием SSE |
data.json | База знаний вопросов и ответов |
📥 Установка
Требования
Питон 3.8+
Установить зависимости:
requirements.txt
🚀 Начало работы
1. Запустите MCP-сервер
Это запустит ваш сервер инструментов с такими функциями, как add
, multiply
и get_knowledge_base
.
2. Запустить клиент
Вариант A: HTTP-клиент (локальный LLM через необработанный API)
Вариант B: клиент OpenAI SDK
Вариант C: стандартный транспорт
Вариант D: транспорт SSE
Убедитесь, что server.py
устанавливает:
Затем выполните:
💬 Примеры подсказок
Вызов математического инструмента
Ответ:
Вопрос базы знаний
Ответ будет включать соответствующий ответ из data.json
.
📁 Пример: data.json
🔧 Конфигурация
Внутри client-http.py
или clientopenai.py
обновите следующее:
Убедитесь, что ваш LLM обслуживает конечные точки API, совместимые с OpenAI.
🧹 Уборка
Клиенты обрабатывают вызовы и ответы инструментов автоматически. Вы можете остановить сервер или клиента с помощью Ctrl+C
.
🪪 Лицензия
Лицензия MIT. См. файл LICENSE .
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Подключает локальных LLM к внешним инструментам (калькулятору, базе знаний) через протокол MCP, обеспечивая автоматическое обнаружение и выполнение инструментов для улучшения ответов на запросы.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- -securityAlicense-qualityA comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.Last updated -14PythonApache 2.0
- -securityAlicense-qualityAn MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.Last updated -177PythonMIT License
- -security-license-qualityA tool server that processes mathematical expressions via Multi-Chain Protocol (MCP), allowing LLMs to solve math problems through tool integration.Last updated -PythonMIT License