Skip to main content
Glama
Lucineer

L.O.G. (Latent Orchestration Gateway)

by Lucineer

LOG-mcp

Deja de adivinar qué modelo de IA usar. Este servidor MCP construye un conjunto de datos de tus preferencias cada vez que eliges entre borradores de respuestas. Aprende de tus elecciones reales, no de puntos de referencia generales.

URL en vivo: https://log-mcp.casey-digennaro.workers.dev Licencia: MIT • Entorno de ejecución: Cloudflare Workers • Dependencias: 0

Por qué existe esto

Las clasificaciones públicas de modelos a menudo no reflejan tus necesidades específicas. Este servidor aprende tus preferencias directamente de las elecciones que haces mientras trabajas, ayudándole a dirigir futuras solicitudes al modelo que probablemente elegirías.

Inicio rápido

Primero bifurca (fork) este repositorio para crear tu propia instancia.

  1. Bifurca este repositorio.

  2. Despliega en Cloudflare Workers usando el botón de un solo clic en tu bifurcación.

  3. Añade tus claves de API de modelo en las variables de entorno del Worker.

Para desarrollo local:

git clone https://github.com/your-username/log-mcp
cd log-mcp
cp .env.example .env
# Add your API keys to the .env file
npm run dev

Cómo funciona

Cuando envías una solicitud, LOG-mcp genera borradores de respuestas de cada modelo configurado. Tú seleccionas el mejor. Cada elección entrena tu perfil de preferencia privado. Con el tiempo, comienza a dirigir las solicitudes directamente al modelo que habrías seleccionado. Todos los datos de elección permanecen dentro de tu Worker.

Características

  • Aprendizaje de preferencias: Dirige las solicitudes basándose en tus elecciones pasadas.

  • Eliminación de PII: Elimina información identificable (nombres, correos electrónicos, números de teléfono) por defecto antes de enviarla a las API de los modelos.

  • Caché semántica: Omite la regeneración para solicitudes semánticamente similares que ya han sido respondidas.

  • Exportación de datos de entrenamiento: Exporta tus pares de preferencias en formato estándar LoRA/DPO.

  • Soporte multi-modelo: Configura puntos finales para OpenAI, Anthropic, Google y modelos de pesos abiertos.

  • Cumplimiento con MCP: Funciona con cualquier cliente que admita el Protocolo de Contexto de Modelo (Model Context Protocol).

  • Cero dependencias: Un único script autónomo que se despliega rápidamente.

Limitaciones

El sistema requiere datos de elección explícitos para aprender. Si rara vez seleccionas entre borradores, no puede construir un perfil de enrutamiento efectivo y continuará mostrando todas las salidas de los modelos.

Arquitectura

LOG-mcp se ejecuta sin estado en Cloudflare Workers. Todos los datos de preferencia se almacenan en un espacio de nombres KV de Cloudflare. No hay bases de datos externas ni procesos en segundo plano que gestionar.

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lucineer/LOG-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server