L.O.G. (Latent Orchestration Gateway)
LOG-mcp
别再猜测该使用哪种 AI 模型了。此 MCP 服务器会在您每次在草稿回复之间进行选择时,构建一份您的偏好数据集。它从您的实际选择中学习,而不是从通用基准测试中学习。
实时 URL: https://log-mcp.casey-digennaro.workers.dev 许可证: MIT • 运行时: Cloudflare Workers • 依赖项: 0
为什么存在此项目
公共模型排名往往不能反映您的具体需求。此服务器直接从您工作时所做的选择中学习您的偏好,从而帮助它将未来的提示词路由到您可能会选择的模型。
快速入门
请先 Fork 此存储库以创建您自己的实例。
Fork 此存储库。
使用您 Fork 版本中的一键按钮部署到 Cloudflare Workers。
在 Worker 的环境变量中添加您的模型 API 密钥。
对于本地开发:
git clone https://github.com/your-username/log-mcp
cd log-mcp
cp .env.example .env
# Add your API keys to the .env file
npm run dev工作原理
当您提交提示词时,LOG-mcp 会从每个配置的模型生成草稿回复。您选择最好的一项。每一次选择都会训练您的私人偏好配置文件。随着时间的推移,它开始将提示词直接路由到您本会选择的模型。所有选择数据都保留在您的 Worker 中。
功能特性
偏好学习: 根据您过去的选择路由提示词。
PII 去除: 在发送到模型 API 之前,默认删除可识别信息(姓名、电子邮件、电话号码)。
语义缓存: 跳过语义相似且之前已回答过的提示词的重新生成。
训练数据导出: 以标准的 LoRA/DPO 格式导出您的偏好对。
多模型支持: 为 OpenAI、Anthropic、Google 和开源权重模型配置端点。
MCP 合规: 适用于任何支持模型上下文协议 (Model Context Protocol) 的客户端。
零依赖: 一个单一的、自包含的脚本,可快速部署。
局限性
该系统需要明确的选择数据才能学习。如果您很少在草稿之间进行选择,它将无法构建有效的路由配置文件,并将继续显示所有模型的输出。
架构
LOG-mcp 在 Cloudflare Workers 上无状态运行。所有偏好数据都存储在 Cloudflare KV 命名空间中。无需管理外部数据库或后台进程。
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lucineer/LOG-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server