L.O.G. (Latent Orchestration Gateway)
LOG-mcp
Hören Sie auf zu raten, welches KI-Modell Sie verwenden sollen. Dieser MCP-Server erstellt bei jeder Auswahl zwischen Entwurfsantworten einen Datensatz Ihrer Präferenzen. Er lernt aus Ihren tatsächlichen Entscheidungen, nicht aus allgemeinen Benchmarks.
Live-URL: https://log-mcp.casey-digennaro.workers.dev Lizenz: MIT • Laufzeit: Cloudflare Workers • Abhängigkeiten: 0
Warum existiert dies?
Öffentliche Modell-Rankings spiegeln oft nicht Ihre spezifischen Bedürfnisse wider. Dieser Server lernt Ihre Präferenzen direkt aus den Entscheidungen, die Sie während der Arbeit treffen, und hilft dabei, zukünftige Prompts an das Modell weiterzuleiten, das Sie wahrscheinlich wählen würden.
Schnellstart
Forken Sie zuerst dieses Repository, um Ihre eigene Instanz zu erstellen.
Forken Sie dieses Repository.
Bereitstellen auf Cloudflare Workers über den Ein-Klick-Button in Ihrem Fork.
Fügen Sie Ihre Modell-API-Schlüssel in den Umgebungsvariablen des Workers hinzu.
Für die lokale Entwicklung:
git clone https://github.com/your-username/log-mcp
cd log-mcp
cp .env.example .env
# Add your API keys to the .env file
npm run devFunktionsweise
Wenn Sie einen Prompt senden, generiert LOG-mcp Entwurfsantworten von jedem konfigurierten Modell. Sie wählen das beste aus. Jede Auswahl trainiert Ihr privates Präferenzprofil. Mit der Zeit beginnt das System, Prompts direkt an das Modell weiterzuleiten, das Sie ausgewählt hätten. Alle Auswahl-Daten verbleiben in Ihrem Worker.
Funktionen
Präferenzlernen: Leitet Prompts basierend auf Ihren vergangenen Entscheidungen weiter.
PII-Entfernung: Entfernt standardmäßig identifizierbare Informationen (Namen, E-Mails, Telefonnummern), bevor sie an Modell-APIs gesendet werden.
Semantisches Caching: Überspringt die Neugenerierung bei semantisch ähnlichen, bereits beantworteten Prompts.
Export von Trainingsdaten: Exportieren Sie Ihre Präferenzpaare im Standard-LoRA/DPO-Format.
Multi-Modell-Unterstützung: Konfigurieren Sie Endpunkte für OpenAI, Anthropic, Google und Open-Weight-Modelle.
MCP-Konformität: Funktioniert mit jedem Client, der das Model Context Protocol unterstützt.
Keine Abhängigkeiten: Ein einzelnes, in sich geschlossenes Skript, das schnell bereitgestellt werden kann.
Einschränkungen
Das System benötigt explizite Auswahl-Daten, um zu lernen. Wenn Sie selten zwischen Entwürfen wählen, kann es kein effektives Routing-Profil erstellen und wird weiterhin alle Modellausgaben anzeigen.
Architektur
LOG-mcp läuft zustandslos auf Cloudflare Workers. Alle Präferenzdaten werden in einem Cloudflare KV-Namespace gespeichert. Es gibt keine externen Datenbanken oder Hintergrundprozesse, die verwaltet werden müssen.
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lucineer/LOG-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server