Skip to main content
Glama

Фегис Баннер

Построен на основе МКППри поддержке QdrantРаботает на Semantics

Фегис

Fegis — это семантическая программная среда и компилятор инструментов, который преобразует спецификации YAML, называемые архетипами , в структурированные, повторно используемые инструменты для больших языковых моделей (LLM). Fegis, построенный на протоколе контекста модели (MCP), компилирует каждый архетип в интерфейсы, проверенные схемой, где имена полей и параметры действуют как семантические директивы , которые управляют генерацией контента.

Каждый вызов инструмента сохраняется в гибридной системе памяти, объединяющей векторные вложения со структурированными метаданными, формируя возникающий граф знаний , который обеспечивает постоянную память, семантический поиск и исследование взаимосвязанных идей.

Основные компоненты

1. Реализация MCP-сервера

Fegis реализует протокол контекста модели (MCP), но в отличие от типичных серверов MCP, которые фокусируются на мостах LLM с внешними системами, Fegis создает семантически насыщенные, внутренне определенные инструменты с использованием архетипов YAML. Он расширяет фреймворк MCP, вводя параметры и фреймы, которые формируют то, как языковые модели понимают и взаимодействуют с этими инструментами.

2. Фреймворк семантического программирования

Fegis представляет практическую форму семантического программирования, где структура YAML действует как каркас для поведения языковой модели. Вместо написания подробных подсказок или процедурных инструкций вы определяете намерение, используя осмысленные имена полей, фреймы и параметры.

Этот подход рассматривает структуру как код : имена полей — это не просто метки — они направляют и ограничивают то, что генерирует LLM. Параметры не просто передают значения — они формируют выразительное пространство модели посредством предоставляемых ими лесов.

3. Гибридная система памяти

Fegis представляет собой гибридную систему памяти, которая объединяет векторные вложения со структурированными метаданными, создавая мощную, доступную для поиска историю всех вызовов инструментов. Эта память функционирует как возникающий граф знаний, позволяя обнаруживать и проходить взаимосвязанные информационные пути. Все вложения и данные памяти остаются локальными по умолчанию, если явно не настроено иное.

Related MCP server: Figma MCP Server

Как LLM обрабатывают архетипы

Чтобы понять, как это работает, давайте посмотрим, что происходит, когда магистр права обрабатывает структуру архетипа:

archetype_context: | You have tools for scientific education that allow you to clearly explain complex concepts with accuracy and accessibility. Focus on making information understandable while maintaining technical precision. parameters: Length: description: "Level of detail and wordiness in explanations" example_values: [terse, brief, moderate, comprehensive, exhaustive] Tone: description: "Communication style that shapes how scientific content is presented" example_values: [formal, informative, conversational, enthusiastic, socratic] tools: Summary: description: "Create a concise summary of important information." parameters: Length: brief Tone: informative frames: key_points: type: List required: true conclusion:

Каждый элемент в этом определении YAML служит определенной цели:

  1. Archetype_context — определяет концептуальное пространство и цель этих инструментов. Этот текст может использоваться для документации или вводиться по мере необходимости, документируя, как следует использовать эти инструменты.

  2. Раздел параметров — определяет семантические измерения, которые формируют вывод:

    • Имя параметра («Длина») определяет, какой аспект настраивается.

    • Описание дает четкое определение назначения параметра.

    • example_values устанавливает спектр возможных значений ([кратко...исчерпывающе])

    • При использовании в инструменте определенные значения («краткие») запускают соответствующие языковые шаблоны

  3. Название инструмента «Резюме» — модель распознает его как инструмент, активирующий связанные шаблоны для сжатия информации.

  4. Описание инструмента — «Создать краткое резюме...» — устанавливает конкретную цель и назначение.

  5. Поля фрейма определяют, какой контент следует генерировать:

    • Имя поля «key_points» позволяет модели идентифицировать важные элементы.

    • Ограничение типа «Список» форматирует вывод как дискретные элементы

    • Требование «required: true» гарантирует, что это поле всегда будет заполнено.

    • Имя поля «вывод» побуждает создать сводное заявление

Такая архитектура создает структурированный поток, в котором каждый элемент служит определенной цели:

┌─────────────────────────────────────────────────┐ │ YAML ↔ LLM Processing │ │ │ │ [Optional] archetype_context → Sets context │ │ parameters → Define semantic dimensions │ │ tool name → Identifies functional category │ │ description → States specific purpose │ │ frames → Structure and guide content creation │ └─────────────────────────────────────────────────┘

Пример взаимодействия: когнитивные инструменты

Чтобы увидеть Fegis в действии, ознакомьтесь с этим примером взаимодействия с когнитивными инструментами , который демонстрирует, как инструменты мышления и рефлексии работают с системой памяти.

Что можно построить с помощью Fegis?

Fegis использовался для создания:

  • Модели мышления , помогающие магистрам права проходить сложные процессы рассуждения

  • Интерфейсы веб-исследований с инструментами для курирования и связывания контента

  • Системы оптимизации , вдохновленные биологическими сетями

  • Инструменты символического мышления с использованием эмодзи в качестве визуального языка

Быстрый старт

# Install uv # Windows winget install --id=astral-sh.uv -e # macOS/Linux curl -LsSf https://astral.sh/uv/install.sh | sh # Clone the repository git clone https://github.com/p-funk/Fegis.git # Start Qdrant docker run -d --name qdrant -p 6333:6333 -p 6334:6334 qdrant/qdrant:latest

Настроить рабочий стол Клода

Обновите claude_desktop_config.json :

"mcpServers": { "mcp-fegis-server": { "command": "uv", "args": [ "--directory", "<FEGIS_PATH>", "run", "fegis" ], "env": { "QDRANT_URL": "http://localhost:6333", "QDRANT_API_KEY": "", "COLLECTION_NAME": "trace_archive", "FAST_EMBED_MODEL": "nomic-ai/nomic-embed-text-v1.5", "CONFIG_PATH": "<FEGIS_PATH>/archetypes/example.yaml" } } }

Узнать больше

  • Примеры — образцы архетипов, с которых можно начать

Скоро появятся новые документы...

Поддержка развития

Купи мне кофе
💖 Спонсор на GitHub

Лицензия

Данный проект лицензирован по лицензии MIT — полную информацию см. в файле LICENSE.

Лицензия MIT является разрешительной и простой: делайте с кодом все, что хотите, при условии указания авторства и не возлагая на авторов никакой ответственности.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/p-funk/FEGIS'

If you have feedback or need assistance with the MCP directory API, please join our Discord server