MCP Server - Model Context Protocol API
MCP Server - это реализация Model Context Protocol (MCP) на базе FastAPI, предоставляющая стандартизированный интерфейс для взаимодействия между LLM-моделями и приложениями.
Особенности
🚀 Высокопроизводительный API на базе FastAPI и асинхронных операций
🔄 Полная поддержка MCP с ресурсами, инструментами, промптами и сэмплированием
📊 Мониторинг и метрики через Prometheus и Grafana
🧩 Расширяемость через простые интерфейсы для добавления новых инструментов
📝 GraphQL API для гибкой работы с данными
💬 WebSocket поддержка для реал-тайм взаимодействия
🔍 Семантический поиск через интеграцию с Elasticsearch
🗃️ Кэширование через Redis для улучшения производительности
📦 Управление зависимостями через Poetry для надежного управления пакетами
Related MCP server: microCMS MCP Server
Начало работы
Установка
Клонировать репозиторий:
git clone https://github.com/yourusername/myaiserv.git cd myaiservУстановить Poetry (если еще не установлен):
curl -sSL https://install.python-poetry.org | python3 -Установить зависимости через Poetry:
poetry install
Запуск сервера
Или через утилиту just:
После запуска API доступен по адресу: http://localhost:8000
Документация API
Swagger UI: http://localhost:8000/docs
ReDoc: http://localhost:8000/redoc
GraphQL Playground: http://localhost:8000/graphql
Структура проекта
Доступные инструменты
File System Tool
Инструмент для работы с файловой системой, поддерживающий операции чтения, записи, удаления и листинга файлов.
Weather Tool
Инструмент для получения погодных данных по координатам.
Text Analysis Tool
Инструмент для анализа текста, включая определение тональности и суммаризацию.
Text Processor Tool
Инструмент для обработки текста, включая форматирование, расчет статистики, извлечение сущностей.
Image Processing Tool
Инструмент для обработки изображений, поддерживающий изменение размера, обрезку и применение фильтров.
WebSocket API
Для подключения к WebSocket API:
GraphQL API
Примеры запросов через GraphQL:
Запуск тестов
Для запуска тестов используйте Poetry:
Или через утилиту just:
Docker
Сборка и запуск через Docker Compose
Для запуска отдельных сервисов:
Интеграция с LLM
MCP Server предоставляет стандартизированный интерфейс для интеграции с LLM-моделями различных поставщиков:
Метрики и мониторинг
MCP Server предоставляет метрики в формате Prometheus по эндпоинту /metrics. Метрики включают:
Количество запросов к каждому инструменту
Время выполнения запросов
Ошибки и исключения
Разработка
Для форматирования кода и проверки линтерами: