L.O.G. (Latent Orchestration Gateway)
LOG-mcp
Перестаньте гадать, какую модель ИИ использовать. Этот MCP-сервер создает набор данных ваших предпочтений каждый раз, когда вы выбираете между черновиками ответов. Он учится на ваших реальных выборах, а не на общих бенчмарках.
Live URL: https://log-mcp.casey-digennaro.workers.dev Лицензия: MIT • Среда выполнения: Cloudflare Workers • Зависимости: 0
Зачем это нужно
Публичные рейтинги моделей часто не отражают ваши специфические потребности. Этот сервер изучает ваши предпочтения непосредственно на основе выбора, который вы делаете во время работы, помогая направлять будущие запросы к той модели, которую вы, скорее всего, выбрали бы.
Быстрый старт
Сначала сделайте форк этого репозитория, чтобы создать свой собственный экземпляр.
Сделайте форк этого репозитория.
Разверните в Cloudflare Workers, используя кнопку в один клик в вашем форке.
Добавьте API-ключи ваших моделей в переменные окружения Worker.
Для локальной разработки:
git clone https://github.com/your-username/log-mcp
cd log-mcp
cp .env.example .env
# Add your API keys to the .env file
npm run devКак это работает
Когда вы отправляете запрос, LOG-mcp генерирует черновики ответов от каждой настроенной модели. Вы выбираете лучший из них. Каждый выбор обучает ваш личный профиль предпочтений. Со временем он начинает направлять запросы непосредственно к той модели, которую вы бы выбрали. Все данные о выборе остаются внутри вашего Worker.
Функции
Обучение предпочтениям: Направляет запросы на основе ваших прошлых выборов.
Удаление PII: По умолчанию удаляет идентифицируемую информацию (имена, адреса электронной почты, номера телефонов) перед отправкой в API моделей.
Семантическое кэширование: Пропускает повторную генерацию для семантически похожих, ранее обработанных запросов.
Экспорт данных обучения: Экспортируйте свои пары предпочтений в стандартном формате LoRA/DPO.
Поддержка нескольких моделей: Настраивайте конечные точки для OpenAI, Anthropic, Google и моделей с открытыми весами.
Соответствие MCP: Работает с любым клиентом, поддерживающим протокол Model Context Protocol.
Нулевые зависимости: Единый автономный скрипт, который быстро развертывается.
Ограничения
Системе требуются явные данные о выборе для обучения. Если вы редко выбираете между черновиками, она не сможет создать эффективный профиль маршрутизации и продолжит показывать все выходные данные моделей.
Архитектура
LOG-mcp работает без сохранения состояния на Cloudflare Workers. Все данные о предпочтениях хранятся в пространстве имен Cloudflare KV. Нет никаких внешних баз данных или фоновых процессов для управления.
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lucineer/LOG-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server