Enables interaction with Ollama's local LLM server through OpenAI-compatible API, providing tools for model listing, chat, benchmarking, and quality evaluation.
Provides tools for interacting with OpenAI's API, including chat, model management, performance benchmarking, coherence evaluation, and quality reporting across different task types.
LLM MCP Bridge 🌉
Un servidor MCP (Model Context Protocol) agnóstico para cualquier API compatible con OpenAI. Permite analizar y evaluar la calidad de modelos LLM.
🎯 Proveedores Soportados
Cualquier servidor que implemente la OpenAI API:
Proveedor | URL Base Típica |
LM Studio |
|
Ollama |
|
vLLM |
|
LocalAI |
|
llama.cpp |
|
OpenAI |
|
Azure OpenAI |
|
Together.ai |
|
Groq |
|
Anyscale |
|
🛠️ Herramientas MCP Disponibles
Herramienta | Descripción |
| Obtiene lista de modelos (JSON) |
| Verifica conexión con el servidor |
| Lista modelos (formato legible) |
| Chat con métricas de rendimiento |
| Benchmark con múltiples prompts |
| Evalúa consistencia del modelo |
| Test en diferentes áreas |
| Compara múltiples modelos |
| Reporte completo de calidad |
Parámetros Configurables en Chat
Todas las herramientas aceptan baseURL y apiKey opcionales para override de conexión.
Parámetro | Descripción | Default |
| Texto a enviar al modelo | requerido |
| ID del modelo | modelo por defecto |
| Máximo de tokens | 512 |
| Temperatura (0-2) | 0.7 |
| Nucleus sampling (0-1) | - |
| Top K sampling | - |
| Penalización repetición | - |
| Penalización presencia | - |
| Penalización frecuencia | - |
| Secuencias de parada | - |
| Prompt de sistema | - |
📋 Requisitos
Node.js >= 18
Un servidor LLM con API compatible con OpenAI
🚀 Instalación
⚙️ Configuración en VS Code
Añade a tu archivo mcp.json de VS Code:
LM Studio (local)
Ollama
OpenAI
Groq
Múltiples proveedores
🔧 Variables de Entorno
Variable | Descripción | Default |
| URL del servidor LLM |
|
| API Key (requerida para servicios cloud) | - |
📖 Ejemplos de Uso
Verificar conexión
Obtener modelos (JSON)
Chat con métricas
Chat con otro servidor (override)
Benchmark
Reporte de calidad
Comparar modelos
🏗️ Estructura del Proyecto
📊 Métricas de Calidad
El servidor analiza:
Latencia: Tiempo total de respuesta (ms)
Tokens/segundo: Velocidad de generación
Coherencia: Consistencia entre múltiples ejecuciones
Capacidades: Rendimiento en diferentes tipos de tareas
Razonamiento
Programación
Creatividad
Conocimiento factual
Seguir instrucciones
🤝 Contribuir
¡Las contribuciones son bienvenidas! Abre un issue o pull request.
📄 Licencia
MIT