Skip to main content
Glama

MCP - Model Context Protocol

🧠 MCP — протокол контекста модели

Завершите проект для разговорного приложения с:

  • ✅ FastAPI + JWT
  • ✅ Местный LLM через Ollama (например: Mistral)
  • ✅ Контекст с векторной памятью (ChromaDB)
  • ✅ Поддержка нескольких пользователей и сеансов
  • ✅ Автоматическое резюме длинной истории
  • ✅ Система плагинов для выполнения реальных действий

🚀 Как вращать

1. Клонируйте проект и создайте среду

git clone <repo> cd mcp python3 -m venv .venv source .venv/bin/activate pip install -r requirements.txt

2. Настройте .env

MODEL_NAME=mistral VECTOR_DB_PATH=./chroma DB_PATH=./mcp.db CONTEXT_LIMIT=5 SUMMARY_TRIGGER=20

3. Запуск Олламы

ollama run mistral

4. Загрузить сервер

chmod +x start.sh ./start.sh

🛡️ Аутентификация

  • POST /auth/register: Создать нового пользователя
  • POST /auth/login: возвращает токен JWT

Используйте токен JWT в запросах к /mcp/chat.

🤖 Плагины

Чтобы вызвать плагин:

{ "session_id": "sessao01", "prompt": "plugin: {\"name\": \"list_files\", \"args\": {\"path\": \"/etc\"}}" }

📁 Структура

app/ ├── routes/ # Rotas da API ├── services/ # Lógica de negócio (MCP, plugins, memória) ├── db/ # Persistência (SQLite e vetorial) ├── models/ # Schemas Pydantic ├── plugins/ # Plugins executáveis pelo MCP ├── auth/ # Login, JWT, usuários

📬 Связаться

Разработано [Эверсон 🧠].

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Сервер диалоговых приложений, который интегрирует возможности LLM через Ollama с контекстом векторной памяти, поддерживает нескольких пользователей, сеансы, автоматическое суммирование истории и систему плагинов для выполнения реальных действий.

  1. 🚀 Как вращать
    1. Клонируйте проект и создайте среду
    2. Настройте .env
    3. Запуск Олламы
    4. Загрузить сервер
  2. 🛡️ Аутентификация
    1. 🤖 Плагины
      1. 📁 Структура
        1. 📬 Связаться

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            An interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.
            Last updated -
            28
            TypeScript
          • -
            security
            F
            license
            -
            quality
            A TypeScript-based server that provides a memory system for Large Language Models (LLMs), allowing users to interact with multiple LLM providers while maintaining conversation history and offering tools for managing providers and model configurations.
            Last updated -
            20
            JavaScript
            • Apple
          • A
            security
            F
            license
            A
            quality
            This MCP server provides persistent memory integration for chat applications by utilizing a local knowledge graph to remember user information across interactions.
            Last updated -
            9
            19,605
            1
            JavaScript
          • -
            security
            -
            license
            -
            quality
            A Model Context Protocol server that enables LLMs to interact with Ramp's financial data by retrieving, analyzing, and running tasks through Ramp's Developer API, using an in-memory SQLite database to overcome token limitations.
            Last updated -
            14
            Python
            MIT License

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/eversonpereira/mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server