Fegis
Fegis es un marco de programación semántica y un compilador de herramientas que transforma las especificaciones YAML (denominadas arquetipos ) en herramientas estructuradas y reutilizables para grandes modelos de lenguaje (LLM). Basado en el Protocolo de Contexto de Modelo (MCP), Fegis compila cada arquetipo en interfaces validadas por esquema, donde los nombres de campo y los parámetros actúan como directivas semánticas que guían la generación de contenido.
Cada invocación de herramienta se conserva en un sistema de memoria híbrido que combina incrustaciones vectoriales con metadatos estructurados, formando un gráfico de conocimiento emergente que permite la memoria persistente, la recuperación semántica y la exploración de ideas interconectadas.
Componentes principales
1. Implementación del servidor MCP
Fegis implementa el Protocolo de Contexto de Modelo (MCP), pero a diferencia de los servidores MCP típicos, que se centran en conectar los LLM con sistemas externos, Fegis crea herramientas semánticamente ricas y definidas internamente mediante arquetipos YAML. Extiende el marco MCP mediante la introducción de parámetros y marcos que configuran cómo los modelos de lenguaje comprenden e interactúan con estas herramientas.
2. Marco de programación semántica
Fegis introduce una forma práctica de programación semántica, donde la estructura YAML actúa como andamiaje para el comportamiento del modelo de lenguaje. En lugar de escribir indicaciones detalladas o instrucciones procedimentales, se define la intención mediante nombres de campo, marcos y parámetros significativos.
Este enfoque trata la estructura como código : los nombres de campo no son simples etiquetas, sino que guían y restringen lo que genera el LLM. Los parámetros no solo transmiten valores, sino que configuran el espacio expresivo del modelo mediante el andamiaje que proporcionan.
3. Sistema de memoria híbrido
Fegis cuenta con un sistema de memoria híbrido que combina incrustaciones vectoriales con metadatos estructurados, creando un historial completo y con capacidad de búsqueda de todas las invocaciones de herramientas. Esta memoria funciona como un grafo de conocimiento emergente, lo que permite descubrir y recorrer rutas de información interconectadas. Todos los datos de incrustación y memoria permanecen locales por defecto, a menos que se configure explícitamente lo contrario.
Cómo los LLM procesan los arquetipos
Para entender cómo funciona esto, veamos qué sucede cuando un LLM procesa el andamiaje de un arquetipo:
Cada elemento de esta definición YAML tiene un propósito específico:
- El contexto_arquetipo : define el espacio conceptual y el propósito de estas herramientas. Este texto puede utilizarse para documentación o insertarse según corresponda, documentando cómo deben usarse estas herramientas.
- La sección de parámetros : define dimensiones semánticas que dan forma a la salida:
- El nombre del parámetro ("Longitud") identifica qué aspecto se está configurando
- La descripción proporciona una definición clara del propósito del parámetro.
- example_values establece un espectro de valores posibles ([conciso...exhaustivo])
- Cuando se utilizan en una herramienta, valores específicos ("breves") activan patrones de lenguaje asociados
- El nombre de la herramienta "Resumen" : el modelo lo reconoce como una herramienta y activa patrones asociados para condensar la información.
- La descripción de la herramienta : "Crear un resumen conciso..." establece el objetivo y el propósito específicos.
- Los campos del marco definen qué contenido generar:
- El nombre de campo "key_points" guía al modelo para identificar elementos importantes
- La restricción de tipo "Lista" formatea la salida como elementos discretos
- El requisito "required: true" garantiza que este campo siempre se completará
- El nombre del campo "conclusión" solicita la creación de una declaración de resumen
Esta arquitectura crea un flujo estructurado donde cada elemento tiene un propósito específico:
Ejemplo de interacción: herramientas cognitivas
Para ver Fegis en acción, consulte este ejemplo de interacción con herramientas cognitivas que demuestra cómo las herramientas de pensamiento y reflexión funcionan con el sistema de memoria.
¿Qué puedes construir con Fegis?
Fegis se ha utilizado para crear:
- Marcos de pensamiento que guían a los estudiantes de LLM a través de procesos de razonamiento complejos
- Interfaces de exploración web con herramientas para seleccionar y conectar contenido
- Sistemas de optimización inspirados en redes biológicas
- Herramientas de razonamiento simbólico que utilizan emojis como lenguaje visual
Inicio rápido
Configurar Claude Desktop
Actualizar claude_desktop_config.json
:
Más información
- Ejemplos : ejemplos de arquetipos para empezar
Próximamente habrá más documentos...
Desarrollo de apoyo
☕ Invítame a un café
💖 Patrocinador en GitHub
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener detalles completos.
La licencia MIT es permisiva y simple: haz lo que quieras con el código, siempre y cuando le des la atribución adecuada y no responsabilices a los autores.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
FEGIS es un servidor de Protocolo de Contexto de Modelo que proporciona a los LLM una memoria estructurada, persistente y portátil a través de herramientas cognitivas personalizables definidas en el esquema.
Related MCP Servers
- AsecurityAlicenseAqualityA Model Context Protocol server that enables LLMs to interact with Salesforce data through SOQL queries, SOSL searches, and various API operations including record management.Last updated -1077PythonMIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that gives LLMs the ability to interact with Ethereum networks, manage wallets, query blockchain data, and execute smart contract operations through a standardized interface.Last updated -313232TypeScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.Last updated -340TypeScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.Last updated -340MIT License