Fegis
Fegis ist ein Framework für semantische Programmierung und ein Tool-Compiler, der YAML-Spezifikationen – sogenannte Archetypen – in strukturierte, wiederverwendbare Tools für große Sprachmodelle (LLMs) transformiert. Basierend auf dem Model Context Protocol (MCP) kompiliert Fegis jeden Archetyp in schemavalidierte Schnittstellen, wobei Feldnamen und Parameter als semantische Anweisungen für die Inhaltsgenerierung dienen.
Jeder Tool-Aufruf wird in einem hybriden Speichersystem gespeichert, das Vektoreinbettungen mit strukturierten Metadaten kombiniert. Dadurch entsteht ein emergenter Wissensgraph , der dauerhaftes Speichern, semantisches Abrufen und die Erkundung miteinander verbundener Ideen ermöglicht.
Kernkomponenten
1. MCP-Server-Implementierung
Fegis implementiert das Model Context Protocol (MCP). Im Gegensatz zu typischen MCP-Servern, die sich auf die Verbindung von LLMs mit externen Systemen konzentrieren, erstellt Fegis semantisch reichhaltige, intern definierte Tools mithilfe von YAML-Archetypen. Es erweitert das MCP-Framework um Parameter und Frames, die das Verständnis und die Interaktion von Sprachmodellen mit diesen Tools beeinflussen.
2. Semantisches Programmierframework
Fegis führt eine praktische Form der semantischen Programmierung ein, bei der die YAML-Struktur als Gerüst für das Verhalten des Sprachmodells dient. Anstatt detaillierte Eingabeaufforderungen oder Verfahrensanweisungen zu schreiben, definieren Sie die Absicht mithilfe aussagekräftiger Feldnamen, Frames und Parameter.
Dieser Ansatz behandelt Struktur als Code : Feldnamen sind nicht nur Beschriftungen – sie steuern und begrenzen die Generierung des LLM. Parameter übergeben nicht nur Werte – sie formen den Ausdrucksraum des Modells durch das von ihnen bereitgestellte Gerüst.
3. Hybrides Speichersystem
Fegis verfügt über ein hybrides Speichersystem, das Vektor-Embeddings mit strukturierten Metadaten kombiniert und so einen leistungsstarken, durchsuchbaren Verlauf aller Tool-Aufrufe erstellt. Dieser Speicher fungiert als emergenter Wissensgraph und ermöglicht das Entdecken und Durchlaufen vernetzter Informationspfade. Alle Embedding- und Speicherdaten bleiben standardmäßig lokal, sofern nicht ausdrücklich anders konfiguriert.
Wie LLMs Archetypen verarbeiten
Um zu verstehen, wie das funktioniert, schauen wir uns an, was passiert, wenn ein LLM das Gerüst eines Archetyps verarbeitet:
Jedes Element in dieser YAML-Definition dient einem bestimmten Zweck:
- Der Archetypkontext – Definiert den konzeptionellen Raum und Zweck dieser Werkzeuge. Dieser Text kann zur Dokumentation verwendet oder bei Bedarf eingefügt werden, um die Verwendung dieser Werkzeuge zu dokumentieren.
- Der Parameterabschnitt – Definiert semantische Dimensionen, die die Ausgabe beeinflussen:
- Der Parametername („Länge“) gibt an, welcher Aspekt konfiguriert wird
- Die Beschreibung liefert eine klare Definition des Zwecks des Parameters
- Beispielwerte legen ein Spektrum möglicher Werte fest ([knapp…erschöpfend])
- Bei der Verwendung in einem Tool lösen bestimmte Werte („Brief“) zugehörige Sprachmuster aus
- Der Toolname „Zusammenfassung“ – das Modell erkennt dies als Tool und aktiviert zugehörige Muster zur Verdichtung von Informationen.
- Die Toolbeschreibung – „Erstellen Sie eine prägnante Zusammenfassung …“ – legt das spezifische Ziel und den Zweck fest.
- Die Rahmenfelder definieren, welcher Inhalt generiert werden soll:
- Der Feldname „key_points“ leitet das Modell zur Identifizierung wichtiger Elemente
- Die Typbeschränkung „Liste“ formatiert die Ausgabe als diskrete Elemente
- Die Anforderung „erforderlich: wahr“ stellt sicher, dass dieses Feld immer ausgefüllt wird
- Feldname „Schlussfolgerung“ veranlasst die Erstellung einer zusammenfassenden Aussage
Diese Architektur erzeugt einen strukturierten Ablauf, bei dem jedes Element einem bestimmten Zweck dient:
Beispielinteraktion: Kognitive Tools
Um Fegis in Aktion zu sehen, sehen Sie sich dieses Beispiel einer Interaktion mit kognitiven Tools an, das zeigt, wie Denk- und Reflexionstools mit dem Gedächtnissystem zusammenarbeiten.
Was können Sie mit Fegis bauen?
Fegis wurde verwendet, um Folgendes zu erstellen:
- Denkrahmen, die LLMs durch komplexe Denkprozesse führen
- Web-Explorationsschnittstellen mit Tools zum Kuratieren und Verknüpfen von Inhalten
- Optimierungssysteme inspiriert von biologischen Netzwerken
- Werkzeuge zum symbolischen Denken mit Emoji als visuelle Sprache
Schnellstart
Claude Desktop konfigurieren
Aktualisieren Sie claude_desktop_config.json
:
Mehr erfahren
- Beispiele – Beispielarchetypen für den Einstieg
weitere Dokumente folgen in Kürze ...
Support-Entwicklung
☕ Kauf mir einen Kaffee
💖 Sponsor auf GitHub
Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert – weitere Einzelheiten finden Sie in der Datei LICENSE.
Die MIT-Lizenz ist freizügig und einfach: Machen Sie mit dem Code, was Sie wollen, solange Sie die Quelle korrekt angeben und die Autoren nicht haftbar machen.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
FEGIS ist ein Model Context Protocol-Server, der LLMs durch anpassbare, im Schema definierte kognitive Tools strukturierten, dauerhaften und portablen Speicher bietet.
Related MCP Servers
- AsecurityFlicenseAqualityA Model Context Protocol server that provides access to Figma API functionality, allowing AI assistants like Claude to interact with Figma files, comments, components, and team resources.Last updated -18341
- -securityFlicense-qualityA Model Context Protocol server that connects AI tools and LLMs to Figma designs, enabling them to extract design data, analyze design systems, and generate development documentation.Last updated -TypeScript
- -securityFlicense-qualityA Model Context Protocol server that enables Language Learning Models to interact with FogBugz, allowing operations like creating and updating issues, assigning cases, listing open cases, and searching through natural language.Last updated -TypeScript
- -securityFlicense-qualityA Model Context Protocol server that enables AI models to perform function calls through Feishu/Lark messaging platform, using your personal account (no bot configuration needed) to create a full-featured AI assistant.Last updated -100Python