Skip to main content
Glama

FEGIS

Фегис Баннер

Построен на основе МКППри поддержке QdrantРаботает на Semantics

Фегис

Fegis — это семантическая программная среда и компилятор инструментов, который преобразует спецификации YAML, называемые архетипами , в структурированные, повторно используемые инструменты для больших языковых моделей (LLM). Fegis, построенный на протоколе контекста модели (MCP), компилирует каждый архетип в интерфейсы, проверенные схемой, где имена полей и параметры действуют как семантические директивы , которые управляют генерацией контента.

Каждый вызов инструмента сохраняется в гибридной системе памяти, объединяющей векторные вложения со структурированными метаданными, формируя возникающий граф знаний , который обеспечивает постоянную память, семантический поиск и исследование взаимосвязанных идей.

Основные компоненты

1. Реализация MCP-сервера

Fegis реализует протокол контекста модели (MCP), но в отличие от типичных серверов MCP, которые фокусируются на мостах LLM с внешними системами, Fegis создает семантически насыщенные, внутренне определенные инструменты с использованием архетипов YAML. Он расширяет фреймворк MCP, вводя параметры и фреймы, которые формируют то, как языковые модели понимают и взаимодействуют с этими инструментами.

2. Фреймворк семантического программирования

Fegis представляет практическую форму семантического программирования, где структура YAML действует как каркас для поведения языковой модели. Вместо написания подробных подсказок или процедурных инструкций вы определяете намерение, используя осмысленные имена полей, фреймы и параметры.

Этот подход рассматривает структуру как код : имена полей — это не просто метки — они направляют и ограничивают то, что генерирует LLM. Параметры не просто передают значения — они формируют выразительное пространство модели посредством предоставляемых ими лесов.

3. Гибридная система памяти

Fegis представляет собой гибридную систему памяти, которая объединяет векторные вложения со структурированными метаданными, создавая мощную, доступную для поиска историю всех вызовов инструментов. Эта память функционирует как возникающий граф знаний, позволяя обнаруживать и проходить взаимосвязанные информационные пути. Все вложения и данные памяти остаются локальными по умолчанию, если явно не настроено иное.

Как LLM обрабатывают архетипы

Чтобы понять, как это работает, давайте посмотрим, что происходит, когда магистр права обрабатывает структуру архетипа:

archetype_context: | You have tools for scientific education that allow you to clearly explain complex concepts with accuracy and accessibility. Focus on making information understandable while maintaining technical precision. parameters: Length: description: "Level of detail and wordiness in explanations" example_values: [terse, brief, moderate, comprehensive, exhaustive] Tone: description: "Communication style that shapes how scientific content is presented" example_values: [formal, informative, conversational, enthusiastic, socratic] tools: Summary: description: "Create a concise summary of important information." parameters: Length: brief Tone: informative frames: key_points: type: List required: true conclusion:

Каждый элемент в этом определении YAML служит определенной цели:

  1. Archetype_context — определяет концептуальное пространство и цель этих инструментов. Этот текст может использоваться для документации или вводиться по мере необходимости, документируя, как следует использовать эти инструменты.
  2. Раздел параметров — определяет семантические измерения, которые формируют вывод:
    • Имя параметра («Длина») определяет, какой аспект настраивается.
    • Описание дает четкое определение назначения параметра.
    • example_values устанавливает спектр возможных значений ([кратко...исчерпывающе])
    • При использовании в инструменте определенные значения («краткие») запускают соответствующие языковые шаблоны
  3. Название инструмента «Резюме» — модель распознает его как инструмент, активирующий связанные шаблоны для сжатия информации.
  4. Описание инструмента — «Создать краткое резюме...» — устанавливает конкретную цель и назначение.
  5. Поля фрейма определяют, какой контент следует генерировать:
    • Имя поля «key_points» позволяет модели идентифицировать важные элементы.
    • Ограничение типа «Список» форматирует вывод как дискретные элементы
    • Требование «required: true» гарантирует, что это поле всегда будет заполнено.
    • Имя поля «вывод» побуждает создать сводное заявление

Такая архитектура создает структурированный поток, в котором каждый элемент служит определенной цели:

┌─────────────────────────────────────────────────┐ │ YAML ↔ LLM Processing │ │ │ │ [Optional] archetype_context → Sets context │ │ parameters → Define semantic dimensions │ │ tool name → Identifies functional category │ │ description → States specific purpose │ │ frames → Structure and guide content creation │ └─────────────────────────────────────────────────┘

Пример взаимодействия: когнитивные инструменты

Чтобы увидеть Fegis в действии, ознакомьтесь с этим примером взаимодействия с когнитивными инструментами , который демонстрирует, как инструменты мышления и рефлексии работают с системой памяти.

Что можно построить с помощью Fegis?

Fegis использовался для создания:

  • Модели мышления , помогающие магистрам права проходить сложные процессы рассуждения
  • Интерфейсы веб-исследований с инструментами для курирования и связывания контента
  • Системы оптимизации , вдохновленные биологическими сетями
  • Инструменты символического мышления с использованием эмодзи в качестве визуального языка

Быстрый старт

# Install uv # Windows winget install --id=astral-sh.uv -e # macOS/Linux curl -LsSf https://astral.sh/uv/install.sh | sh # Clone the repository git clone https://github.com/p-funk/Fegis.git # Start Qdrant docker run -d --name qdrant -p 6333:6333 -p 6334:6334 qdrant/qdrant:latest

Настроить рабочий стол Клода

Обновите claude_desktop_config.json :

"mcpServers": { "mcp-fegis-server": { "command": "uv", "args": [ "--directory", "<FEGIS_PATH>", "run", "fegis" ], "env": { "QDRANT_URL": "http://localhost:6333", "QDRANT_API_KEY": "", "COLLECTION_NAME": "trace_archive", "FAST_EMBED_MODEL": "nomic-ai/nomic-embed-text-v1.5", "CONFIG_PATH": "<FEGIS_PATH>/archetypes/example.yaml" } } }

Узнать больше

  • Примеры — образцы архетипов, с которых можно начать

Скоро появятся новые документы...

Поддержка развития

Купи мне кофе
💖 Спонсор на GitHub

Лицензия

Данный проект лицензирован по лицензии MIT — полную информацию см. в файле LICENSE.

Лицензия MIT является разрешительной и простой: делайте с кодом все, что хотите, при условии указания авторства и не возлагая на авторов никакой ответственности.

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

FEGIS — это сервер протокола контекста модели, который предоставляет магистрам права структурированную, постоянную и переносимую память с помощью настраиваемых когнитивных инструментов, определенных в схеме.

  1. Основные компоненты
    1. Реализация MCP-сервера
    2. Фреймворк семантического программирования
    3. Гибридная система памяти
  2. Как LLM обрабатывают архетипы
    1. Пример взаимодействия: когнитивные инструменты
      1. Что можно построить с помощью Fegis?
        1. Быстрый старт
          1. Настроить рабочий стол Клода
        2. Узнать больше
          1. Поддержка развития
            1. Лицензия

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol server that enables LLMs to interact with Salesforce data through SOQL queries, SOSL searches, and various API operations including record management.
                Last updated -
                10
                77
                Python
                MIT License
              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol server that gives LLMs the ability to interact with Ethereum networks, manage wallets, query blockchain data, and execute smart contract operations through a standardized interface.
                Last updated -
                31
                323
                2
                TypeScript
                MIT License
              • -
                security
                A
                license
                -
                quality
                A Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.
                Last updated -
                340
                TypeScript
                MIT License
                • Apple
              • -
                security
                A
                license
                -
                quality
                A Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.
                Last updated -
                340
                MIT License
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/p-funk/FEGIS'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server