Skip to main content
Glama

FEGIS

Bandera de Fegis

Construido sobre MCPDesarrollado por QdrantDesarrollado por semántica

Fegis

Fegis es un marco de programación semántica y un compilador de herramientas que transforma las especificaciones YAML (denominadas arquetipos ) en herramientas estructuradas y reutilizables para grandes modelos de lenguaje (LLM). Basado en el Protocolo de Contexto de Modelo (MCP), Fegis compila cada arquetipo en interfaces validadas por esquema, donde los nombres de campo y los parámetros actúan como directivas semánticas que guían la generación de contenido.

Cada invocación de herramienta se conserva en un sistema de memoria híbrido que combina incrustaciones vectoriales con metadatos estructurados, formando un gráfico de conocimiento emergente que permite la memoria persistente, la recuperación semántica y la exploración de ideas interconectadas.

Componentes principales

1. Implementación del servidor MCP

Fegis implementa el Protocolo de Contexto de Modelo (MCP), pero a diferencia de los servidores MCP típicos, que se centran en conectar los LLM con sistemas externos, Fegis crea herramientas semánticamente ricas y definidas internamente mediante arquetipos YAML. Extiende el marco MCP mediante la introducción de parámetros y marcos que configuran cómo los modelos de lenguaje comprenden e interactúan con estas herramientas.

2. Marco de programación semántica

Fegis introduce una forma práctica de programación semántica, donde la estructura YAML actúa como andamiaje para el comportamiento del modelo de lenguaje. En lugar de escribir indicaciones detalladas o instrucciones procedimentales, se define la intención mediante nombres de campo, marcos y parámetros significativos.

Este enfoque trata la estructura como código : los nombres de campo no son simples etiquetas, sino que guían y restringen lo que genera el LLM. Los parámetros no solo transmiten valores, sino que configuran el espacio expresivo del modelo mediante el andamiaje que proporcionan.

3. Sistema de memoria híbrido

Fegis cuenta con un sistema de memoria híbrido que combina incrustaciones vectoriales con metadatos estructurados, creando un historial completo y con capacidad de búsqueda de todas las invocaciones de herramientas. Esta memoria funciona como un grafo de conocimiento emergente, lo que permite descubrir y recorrer rutas de información interconectadas. Todos los datos de incrustación y memoria permanecen locales por defecto, a menos que se configure explícitamente lo contrario.

Cómo los LLM procesan los arquetipos

Para entender cómo funciona esto, veamos qué sucede cuando un LLM procesa el andamiaje de un arquetipo:

archetype_context: | You have tools for scientific education that allow you to clearly explain complex concepts with accuracy and accessibility. Focus on making information understandable while maintaining technical precision. parameters: Length: description: "Level of detail and wordiness in explanations" example_values: [terse, brief, moderate, comprehensive, exhaustive] Tone: description: "Communication style that shapes how scientific content is presented" example_values: [formal, informative, conversational, enthusiastic, socratic] tools: Summary: description: "Create a concise summary of important information." parameters: Length: brief Tone: informative frames: key_points: type: List required: true conclusion:

Cada elemento de esta definición YAML tiene un propósito específico:

  1. El contexto_arquetipo : define el espacio conceptual y el propósito de estas herramientas. Este texto puede utilizarse para documentación o insertarse según corresponda, documentando cómo deben usarse estas herramientas.
  2. La sección de parámetros : define dimensiones semánticas que dan forma a la salida:
    • El nombre del parámetro ("Longitud") identifica qué aspecto se está configurando
    • La descripción proporciona una definición clara del propósito del parámetro.
    • example_values establece un espectro de valores posibles ([conciso...exhaustivo])
    • Cuando se utilizan en una herramienta, valores específicos ("breves") activan patrones de lenguaje asociados
  3. El nombre de la herramienta "Resumen" : el modelo lo reconoce como una herramienta y activa patrones asociados para condensar la información.
  4. La descripción de la herramienta : "Crear un resumen conciso..." establece el objetivo y el propósito específicos.
  5. Los campos del marco definen qué contenido generar:
    • El nombre de campo "key_points" guía al modelo para identificar elementos importantes
    • La restricción de tipo "Lista" formatea la salida como elementos discretos
    • El requisito "required: true" garantiza que este campo siempre se completará
    • El nombre del campo "conclusión" solicita la creación de una declaración de resumen

Esta arquitectura crea un flujo estructurado donde cada elemento tiene un propósito específico:

┌─────────────────────────────────────────────────┐ │ YAML ↔ LLM Processing │ │ │ │ [Optional] archetype_context → Sets context │ │ parameters → Define semantic dimensions │ │ tool name → Identifies functional category │ │ description → States specific purpose │ │ frames → Structure and guide content creation │ └─────────────────────────────────────────────────┘

Ejemplo de interacción: herramientas cognitivas

Para ver Fegis en acción, consulte este ejemplo de interacción con herramientas cognitivas que demuestra cómo las herramientas de pensamiento y reflexión funcionan con el sistema de memoria.

¿Qué puedes construir con Fegis?

Fegis se ha utilizado para crear:

  • Marcos de pensamiento que guían a los estudiantes de LLM a través de procesos de razonamiento complejos
  • Interfaces de exploración web con herramientas para seleccionar y conectar contenido
  • Sistemas de optimización inspirados en redes biológicas
  • Herramientas de razonamiento simbólico que utilizan emojis como lenguaje visual

Inicio rápido

# Install uv # Windows winget install --id=astral-sh.uv -e # macOS/Linux curl -LsSf https://astral.sh/uv/install.sh | sh # Clone the repository git clone https://github.com/p-funk/Fegis.git # Start Qdrant docker run -d --name qdrant -p 6333:6333 -p 6334:6334 qdrant/qdrant:latest

Configurar Claude Desktop

Actualizar claude_desktop_config.json :

"mcpServers": { "mcp-fegis-server": { "command": "uv", "args": [ "--directory", "<FEGIS_PATH>", "run", "fegis" ], "env": { "QDRANT_URL": "http://localhost:6333", "QDRANT_API_KEY": "", "COLLECTION_NAME": "trace_archive", "FAST_EMBED_MODEL": "nomic-ai/nomic-embed-text-v1.5", "CONFIG_PATH": "<FEGIS_PATH>/archetypes/example.yaml" } } }

Más información

  • Ejemplos : ejemplos de arquetipos para empezar

Próximamente habrá más documentos...

Desarrollo de apoyo

Invítame a un café
💖 Patrocinador en GitHub

Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener detalles completos.

La licencia MIT es permisiva y simple: haz lo que quieras con el código, siempre y cuando le des la atribución adecuada y no responsabilices a los autores.

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

FEGIS es un servidor de Protocolo de Contexto de Modelo que proporciona a los LLM una memoria estructurada, persistente y portátil a través de herramientas cognitivas personalizables definidas en el esquema.

  1. Componentes principales
    1. Implementación del servidor MCP
    2. Marco de programación semántica
    3. Sistema de memoria híbrido
  2. Cómo los LLM procesan los arquetipos
    1. Ejemplo de interacción: herramientas cognitivas
      1. ¿Qué puedes construir con Fegis?
        1. Inicio rápido
          1. Configurar Claude Desktop
        2. Más información
          1. Desarrollo de apoyo
            1. Licencia

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol server that enables LLMs to interact with Salesforce data through SOQL queries, SOSL searches, and various API operations including record management.
                Last updated -
                10
                77
                Python
                MIT License
              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol server that gives LLMs the ability to interact with Ethereum networks, manage wallets, query blockchain data, and execute smart contract operations through a standardized interface.
                Last updated -
                31
                323
                2
                TypeScript
                MIT License
              • -
                security
                A
                license
                -
                quality
                A Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.
                Last updated -
                340
                TypeScript
                MIT License
                • Apple
              • -
                security
                A
                license
                -
                quality
                A Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.
                Last updated -
                340
                MIT License
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/p-funk/FEGIS'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server