L.O.G. (Latent Orchestration Gateway)
LOG-mcp
Deja de adivinar qué modelo de IA usar. Este servidor MCP construye un conjunto de datos de tus preferencias cada vez que eliges entre borradores de respuestas. Aprende de tus elecciones reales, no de puntos de referencia generales.
URL en vivo: https://log-mcp.casey-digennaro.workers.dev Licencia: MIT • Entorno de ejecución: Cloudflare Workers • Dependencias: 0
Por qué existe esto
Las clasificaciones públicas de modelos a menudo no reflejan tus necesidades específicas. Este servidor aprende tus preferencias directamente de las elecciones que haces mientras trabajas, ayudándole a dirigir futuras solicitudes al modelo que probablemente elegirías.
Inicio rápido
Primero bifurca (fork) este repositorio para crear tu propia instancia.
Bifurca este repositorio.
Despliega en Cloudflare Workers usando el botón de un solo clic en tu bifurcación.
Añade tus claves de API de modelo en las variables de entorno del Worker.
Para desarrollo local:
git clone https://github.com/your-username/log-mcp
cd log-mcp
cp .env.example .env
# Add your API keys to the .env file
npm run devCómo funciona
Cuando envías una solicitud, LOG-mcp genera borradores de respuestas de cada modelo configurado. Tú seleccionas el mejor. Cada elección entrena tu perfil de preferencia privado. Con el tiempo, comienza a dirigir las solicitudes directamente al modelo que habrías seleccionado. Todos los datos de elección permanecen dentro de tu Worker.
Características
Aprendizaje de preferencias: Dirige las solicitudes basándose en tus elecciones pasadas.
Eliminación de PII: Elimina información identificable (nombres, correos electrónicos, números de teléfono) por defecto antes de enviarla a las API de los modelos.
Caché semántica: Omite la regeneración para solicitudes semánticamente similares que ya han sido respondidas.
Exportación de datos de entrenamiento: Exporta tus pares de preferencias en formato estándar LoRA/DPO.
Soporte multi-modelo: Configura puntos finales para OpenAI, Anthropic, Google y modelos de pesos abiertos.
Cumplimiento con MCP: Funciona con cualquier cliente que admita el Protocolo de Contexto de Modelo (Model Context Protocol).
Cero dependencias: Un único script autónomo que se despliega rápidamente.
Limitaciones
El sistema requiere datos de elección explícitos para aprender. Si rara vez seleccionas entre borradores, no puede construir un perfil de enrutamiento efectivo y continuará mostrando todas las salidas de los modelos.
Arquitectura
LOG-mcp se ejecuta sin estado en Cloudflare Workers. Todos los datos de preferencia se almacenan en un espacio de nombres KV de Cloudflare. No hay bases de datos externas ni procesos en segundo plano que gestionar.
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lucineer/LOG-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server