Integrations
Uses FastAPI to create a REST API server that handles requests for managing conversation context and interacting with language models.
Integrates with Google Gemini API to enable context-aware conversations with the language model, allowing the system to maintain conversation history across multiple requests.
MCP: Model Context Protocol
Описание проекта
MCP (Model Context Protocol) - это система для управления контекстом при взаимодействии с языковыми моделями (LLM). Система позволяет сохранять контекст диалогов между запросами, что даёт возможность языковой модели "помнить" предыдущие взаимодействия.
Особенности
- Сохранение и управление контекстом между запросами
- Интеграция с Google Gemini API
- Возможность использования нескольких независимых сессий
- Переключение между сессиями с помощью идентификаторов
- Локальное хранение истории диалогов
Технологии
- Python 3
- FastAPI
- Gemini API
- Uvicorn
Установка
- Клонировать репозиторий:
- Создать и активировать виртуальное окружение:
- Установить зависимости:
- Создать файл
.env
и добавить API ключ:
Использование
Запуск сервера
Сервер будет доступен по адресу: http://localhost:9999
Использование клиента
Отправить запрос (создаст новую сессию):
Продолжить диалог в той же сессии:
Использовать конкретную сессию по ID:
Показать список всех сессий:
Структура проекта
mcp_server.py
- Основной сервер MCPmcp_client.py
- Клиент для взаимодействия с серверомrequirements.txt
- Зависимости проекта
Лицензия
MIT
Автор
Alex Replicator - alex.replicator@gmail.com
This server cannot be installed
A system that manages context for language model interactions, allowing the model to remember previous interactions across multiple independent sessions using Gemini API.