L.O.G. (Latent Orchestration Gateway)
LOG-mcp
どのAIモデルを使うべきか推測するのはやめましょう。このMCPサーバーは、ドラフト回答を選択するたびにあなたの好みのデータセットを構築します。一般的なベンチマークではなく、あなたの実際の選択から学習します。
ライブURL: https://log-mcp.casey-digennaro.workers.dev ライセンス: MIT • ランタイム: Cloudflare Workers • 依存関係: 0
なぜこれが存在するのか
公開されているモデルのランキングは、多くの場合、あなたの特定のニーズを反映していません。このサーバーは、作業中にあなたが行う選択から直接好みを学習し、将来のプロンプトをあなたが選ぶ可能性が高いモデルへとルーティングする手助けをします。
クイックスタート
まずこのリポジトリをフォークして、独自のインスタンスを作成してください。
フォーク: このリポジトリをフォークします。
デプロイ: フォーク内のワンクリックボタンを使用してCloudflare Workersにデプロイします。
APIキーの追加: Workerの環境変数にモデルのAPIキーを追加します。
ローカル開発の場合:
git clone https://github.com/your-username/log-mcp
cd log-mcp
cp .env.example .env
# Add your API keys to the .env file
npm run dev仕組み
プロンプトを送信すると、LOG-mcpは設定された各モデルからドラフト回答を生成します。あなたが最適なものを選択すると、その選択があなたのプライベートな好みプロファイルをトレーニングします。時間が経つにつれて、プロンプトはあなたが選択したであろうモデルに直接ルーティングされるようになります。すべての選択データはWorker内に留まります。
特徴
好み学習: 過去の選択に基づいてプロンプトをルーティングします。
PII(個人情報)の削除: モデルAPIに送信する前に、デフォルトで識別可能な情報(名前、メールアドレス、電話番号)を削除します。
セマンティックキャッシュ: 意味的に類似した以前に回答済みのプロンプトについては、再生成をスキップします。
トレーニングデータのエクスポート: 好みのペアを標準のLoRA/DPO形式でエクスポートします。
マルチモデルサポート: OpenAI、Anthropic、Google、およびオープンウェイトモデルのエンドポイントを設定可能です。
MCP準拠: Model Context Protocolをサポートするあらゆるクライアントで動作します。
ゼロ依存関係: 迅速にデプロイできる単一の自己完結型スクリプトです。
制限事項
このシステムが学習するには、明示的な選択データが必要です。ドラフト間の選択をほとんど行わない場合、効果的なルーティングプロファイルを構築できず、すべてのモデルの出力を表示し続けることになります。
アーキテクチャ
LOG-mcpはCloudflare Workers上でステートレスに動作します。すべての好みデータはCloudflare KV名前空間に保存されます。管理が必要な外部データベースやバックグラウンドプロセスはありません。
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lucineer/LOG-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server