MCP Server - Model Context Protocol API
MCP Server - это реализация Model Context Protocol (MCP) на базе FastAPI, предоставляющая стандартизированный интерфейс для взаимодействия между LLM-моделями и приложениями.
Особенности
🚀 Высокопроизводительный API на базе FastAPI и асинхронных операций
🔄 Полная поддержка MCP с ресурсами, инструментами, промптами и сэмплированием
📊 Мониторинг и метрики через Prometheus и Grafana
🧩 Расширяемость через простые интерфейсы для добавления новых инструментов
📝 GraphQL API для гибкой работы с данными
💬 WebSocket поддержка для реал-тайм взаимодействия
🔍 Семантический поиск через интеграцию с Elasticsearch
🗃️ Кэширование через Redis для улучшения производительности
📦 Управление зависимостями через Poetry для надежного управления пакетами
Начало работы
Установка
Клонировать репозиторий:
git clone https://github.com/yourusername/myaiserv.git cd myaiservУстановить Poetry (если еще не установлен):
curl -sSL https://install.python-poetry.org | python3 -Установить зависимости через Poetry:
poetry install
Запуск сервера
Или через утилиту just:
После запуска API доступен по адресу: http://localhost:8000
Документация API
Swagger UI: http://localhost:8000/docs
ReDoc: http://localhost:8000/redoc
GraphQL Playground: http://localhost:8000/graphql
Структура проекта
Доступные инструменты
File System Tool
Инструмент для работы с файловой системой, поддерживающий операции чтения, записи, удаления и листинга файлов.
Weather Tool
Инструмент для получения погодных данных по координатам.
Text Analysis Tool
Инструмент для анализа текста, включая определение тональности и суммаризацию.
Text Processor Tool
Инструмент для обработки текста, включая форматирование, расчет статистики, извлечение сущностей.
Image Processing Tool
Инструмент для обработки изображений, поддерживающий изменение размера, обрезку и применение фильтров.
WebSocket API
Для подключения к WebSocket API:
GraphQL API
Примеры запросов через GraphQL:
Запуск тестов
Для запуска тестов используйте Poetry:
Или через утилиту just:
Docker
Сборка и запуск через Docker Compose
Для запуска отдельных сервисов:
Интеграция с LLM
MCP Server предоставляет стандартизированный интерфейс для интеграции с LLM-моделями различных поставщиков:
Метрики и мониторинг
MCP Server предоставляет метрики в формате Prometheus по эндпоинту /metrics. Метрики включают:
Количество запросов к каждому инструменту
Время выполнения запросов
Ошибки и исключения
Разработка
Для форматирования кода и проверки линтерами:
Лицензия
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
A high-performance FastAPI server supporting Model Context Protocol (MCP) for seamless integration with Large Language Models, featuring REST, GraphQL, and WebSocket APIs, along with real-time monitoring and vector search capabilities.
- Особенности
- Начало работы
- Структура проекта
- Доступные инструменты
- WebSocket API
- GraphQL API
- Запуск тестов
- Docker
- Интеграция с LLM
- Метрики и мониторинг
- Разработка
- Лицензия
Related Resources
Related MCP Servers
- -securityFlicense-qualityA production-ready MCP server built with FastAPI, providing an enhanced tool registry for creating, managing, and documenting AI tools for Large Language Models (LLMs).Last updated -34
- -securityAlicense-qualityA Model Context Protocol (MCP) compliant server that allows Large Language Models (LLMs) to search and retrieve content from microCMS APIs.Last updated -MIT License
- -securityAlicense-qualityA high-performance Model Context Protocol (MCP) server designed for large language models, enabling real-time communication between AI models and applications with support for session management and intelligent tool registration.Last updated -2MIT License
- -securityFlicense-qualityA FastAPI server implementing the Model Context Protocol (MCP) for structured tool use, providing utility tools including random number generation, image generation via Azure OpenAI DALL-E, and AI podcast generation.Last updated -