Skip to main content
Glama
Lucineer

L.O.G. (Latent Orchestration Gateway)

by Lucineer

LOG-mcp

Hören Sie auf zu raten, welches KI-Modell Sie verwenden sollen. Dieser MCP-Server erstellt bei jeder Auswahl zwischen Entwurfsantworten einen Datensatz Ihrer Präferenzen. Er lernt aus Ihren tatsächlichen Entscheidungen, nicht aus allgemeinen Benchmarks.

Live-URL: https://log-mcp.casey-digennaro.workers.dev Lizenz: MIT • Laufzeit: Cloudflare Workers • Abhängigkeiten: 0

Warum existiert dies?

Öffentliche Modell-Rankings spiegeln oft nicht Ihre spezifischen Bedürfnisse wider. Dieser Server lernt Ihre Präferenzen direkt aus den Entscheidungen, die Sie während der Arbeit treffen, und hilft dabei, zukünftige Prompts an das Modell weiterzuleiten, das Sie wahrscheinlich wählen würden.

Schnellstart

Forken Sie zuerst dieses Repository, um Ihre eigene Instanz zu erstellen.

  1. Forken Sie dieses Repository.

  2. Bereitstellen auf Cloudflare Workers über den Ein-Klick-Button in Ihrem Fork.

  3. Fügen Sie Ihre Modell-API-Schlüssel in den Umgebungsvariablen des Workers hinzu.

Für die lokale Entwicklung:

git clone https://github.com/your-username/log-mcp
cd log-mcp
cp .env.example .env
# Add your API keys to the .env file
npm run dev

Funktionsweise

Wenn Sie einen Prompt senden, generiert LOG-mcp Entwurfsantworten von jedem konfigurierten Modell. Sie wählen das beste aus. Jede Auswahl trainiert Ihr privates Präferenzprofil. Mit der Zeit beginnt das System, Prompts direkt an das Modell weiterzuleiten, das Sie ausgewählt hätten. Alle Auswahl-Daten verbleiben in Ihrem Worker.

Funktionen

  • Präferenzlernen: Leitet Prompts basierend auf Ihren vergangenen Entscheidungen weiter.

  • PII-Entfernung: Entfernt standardmäßig identifizierbare Informationen (Namen, E-Mails, Telefonnummern), bevor sie an Modell-APIs gesendet werden.

  • Semantisches Caching: Überspringt die Neugenerierung bei semantisch ähnlichen, bereits beantworteten Prompts.

  • Export von Trainingsdaten: Exportieren Sie Ihre Präferenzpaare im Standard-LoRA/DPO-Format.

  • Multi-Modell-Unterstützung: Konfigurieren Sie Endpunkte für OpenAI, Anthropic, Google und Open-Weight-Modelle.

  • MCP-Konformität: Funktioniert mit jedem Client, der das Model Context Protocol unterstützt.

  • Keine Abhängigkeiten: Ein einzelnes, in sich geschlossenes Skript, das schnell bereitgestellt werden kann.

Einschränkungen

Das System benötigt explizite Auswahl-Daten, um zu lernen. Wenn Sie selten zwischen Entwürfen wählen, kann es kein effektives Routing-Profil erstellen und wird weiterhin alle Modellausgaben anzeigen.

Architektur

LOG-mcp läuft zustandslos auf Cloudflare Workers. Alle Präferenzdaten werden in einem Cloudflare KV-Namespace gespeichert. Es gibt keine externen Datenbanken oder Hintergrundprozesse, die verwaltet werden müssen.

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lucineer/LOG-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server