Ollama-Omega
Un servidor MCP reforzado que conecta el ecosistema completo de Ollama (modelos locales y gigantes alojados en la nube) con cualquier IDE compatible con MCP. Sin scripts envolventes. Sin SDK inflado. Solo un archivo Python con dos dependencias.
PRINCIPIO DE DISEÑO: Ollama-Omega no abstrae Ollama. Expone la superficie completa de la API de Ollama a través de 6 herramientas validadas y con manejo de errores, sin pérdida de información.
Arquitectura
┌─────────────────────────────────────────────────────┐
│ MCP Client (IDE) │
│ Claude Desktop / Antigravity / etc. │
└──────────────────────┬──────────────────────────────┘
│ stdio (JSON-RPC 2.0)
┌──────────────────────▼──────────────────────────────┐
│ ollama_mcp_server.py │
│ ┌──────────┐ ┌──────────┐ ┌───────────────────┐ │
│ │ Validator│ │ Dispatch │ │ Singleton httpx │ │
│ │ + Schema │→│ Router │→│ AsyncClient │ │
│ └──────────┘ └──────────┘ │ (no redirects) │ │
│ └─────────┬─────────┘ │
└───────────────────────────────────────┼──────────────┘
│ HTTP
┌───────────────────────────────────────▼──────────────┐
│ Ollama Daemon │
│ Local models (GPU) │ Cloud models (API proxy) │
└───────────────────────────────────────────────────────┘Herramientas (6)
Herramienta | Propósito |
| Comprobar la conectividad y listar los modelos cargados/en ejecución |
| Listar todos los modelos disponibles con tamaño, estado de carga y fecha de modificación |
| Enviar una solicitud de chat con historial de mensajes y prompt del sistema |
| Generar una respuesta para un prompt dado sin historial de chat |
| Mostrar información detallada sobre un modelo específico (licencia, parámetros) |
| Descargar un modelo desde la biblioteca de Ollama |
Auditoría de Refuerzo
# | Categoría | Mitigación |
1 | SSRF | Redirecciones deshabilitadas en el cliente httpx ( |
2 | Fuga de recursos |
|
3 | Validación de entrada | Puerta |
4 | Seguridad JSON | Envoltorio |
5 | Registro estructurado | Toda la salida stderr a través del módulo |
6 | Cargas útiles DRY |
|
7 | Sanitización de errores | Ayudante |
Inicio rápido
Requisitos
Python 3.11+
pip install mcp httpx
Configuración en Claude Desktop / Antigravity
{
"mcpServers": {
"ollama": {
"command": "uv",
"args": [
"--directory",
"path/to/ollama-mcp",
"run",
"python",
"ollama_mcp_server.py"
],
"env": {
"PYTHONUTF8": "1",
"OLLAMA_HOST": "http://localhost:11434",
"OLLAMA_TIMEOUT": "300"
}
}
}
}Variables de entorno
Variable | Predeterminado | Descripción |
|
| URL del demonio Ollama |
|
| Tiempo de espera de solicitud en segundos (largo para descargas de modelos grandes/inferencia en la nube) |
| — | Establecer en |
Modelos en la nube
Ollama-Omega es agnóstico a la versión. Si su demonio Ollama expone modelos alojados en la nube (p. ej., qwen3.5:397b-cloud a través de un proxy API), son accesibles a través de las mismas 6 herramientas, sin necesidad de cambios de configuración.
Estructura de archivos
Ollama-Omega/
ollama_mcp_server.py # MCP server (~307 lines) — hardened, single-file
pyproject.toml # Package metadata, CLI entry, PyPI classifiers
requirements.txt # mcp>=1.0.0, httpx>=0.27.0
glama.json # Glama MCP directory registration
LICENSE # MIT
CHANGELOG.md # Version history
tests/
test_server.py # 48 tests — tools, dispatch, errors, SSRF, config
examples/
basic_usage.py # Programmatic MCP client example
docs/
BUILD_SPEC.md # Internal build specificationPruebas
pip install pytest
python -m pytest tests/ -v48 pruebas que cubren:
Definiciones de herramientas: validación de esquema, campos obligatorios, descripciones
Funciones auxiliares: constructor de opciones, validación, seguridad JSON, formato de errores
Despachador: las 6 rutas de herramientas con respuestas HTTP simuladas
Manejo de errores: conexión, tiempo de espera, estado HTTP, sanitización de excepciones
Configuración: valores predeterminados del entorno, mitigación de SSRF, identidad del servidor
Servidor complementario
Ollama-Omega es la capa de transporte para Omega Brain MCP: memoria episódica entre sesiones + pipeline de construcción VERITAS de 10 puertas. Juntos forman el stack de inteligencia soberana.
Licencia
MIT
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/VrtxOmega/Ollama-Omega'
If you have feedback or need assistance with the MCP directory API, please join our Discord server