Ollama-Omega
Ein gehärteter MCP-Server, der das vollständige Ollama-Ökosystem – lokale Modelle und Cloud-gehostete Giganten gleichermaßen – in jede MCP-kompatible IDE einbindet. Keine Wrapper-Skripte. Kein aufgeblähtes SDK. Nur eine einzige Python-Datei mit zwei Abhängigkeiten.
DESIGN-PRINZIP: Ollama-Omega abstrahiert Ollama nicht. Es stellt die vollständige Ollama-API-Oberfläche über 6 validierte, fehlerbehandelte MCP-Tools ohne Informationsverlust bereit.
Architektur
┌─────────────────────────────────────────────────────┐
│ MCP Client (IDE) │
│ Claude Desktop / Antigravity / etc. │
└──────────────────────┬──────────────────────────────┘
│ stdio (JSON-RPC 2.0)
┌──────────────────────▼──────────────────────────────┐
│ ollama_mcp_server.py │
│ ┌──────────┐ ┌──────────┐ ┌───────────────────┐ │
│ │ Validator│ │ Dispatch │ │ Singleton httpx │ │
│ │ + Schema │→│ Router │→│ AsyncClient │ │
│ └──────────┘ └──────────┘ │ (no redirects) │ │
│ └─────────┬─────────┘ │
└───────────────────────────────────────┼──────────────┘
│ HTTP
┌───────────────────────────────────────▼──────────────┐
│ Ollama Daemon │
│ Local models (GPU) │ Cloud models (API proxy) │
└───────────────────────────────────────────────────────┘Tools (6)
Tool | Zweck |
| Überprüft die Konnektivität und listet aktuell laufende/geladene Modelle auf |
| Listet alle verfügbaren Modelle mit Größe, Ladestatus und Änderungsdatum auf |
| Sendet eine Chat-Vervollständigungsanfrage mit Nachrichtenverlauf und System-Prompt |
| Generiert eine Antwort für einen gegebenen Prompt ohne Chat-Verlauf |
| Zeigt detaillierte Informationen zu einem bestimmten Modell an (Lizenz, Parameter) |
| Lädt ein Modell aus der Ollama-Bibliothek herunter |
Härtungs-Audit
# | Kategorie | Abschwächung |
1 | SSRF | Weiterleitungen im httpx-Client deaktiviert ( |
2 | Ressourcenleck | Singleton |
3 | Eingabevalidierung |
|
4 | JSON-Sicherheit |
|
5 | Strukturiertes Logging | Alle stderr-Ausgaben über das |
6 | DRY-Payloads |
|
7 | Fehlerbereinigung |
|
Schnellstart
Anforderungen
Python 3.11+
pip install mcp httpx
Konfiguration in Claude Desktop / Antigravity
{
"mcpServers": {
"ollama": {
"command": "uv",
"args": [
"--directory",
"path/to/ollama-mcp",
"run",
"python",
"ollama_mcp_server.py"
],
"env": {
"PYTHONUTF8": "1",
"OLLAMA_HOST": "http://localhost:11434",
"OLLAMA_TIMEOUT": "300"
}
}
}
}Umgebungsvariablen
Variable | Standard | Beschreibung |
|
| Ollama-Daemon-URL |
|
| Anfrage-Timeout in Sekunden (lang für große Modell-Downloads/Cloud-Inferenz) |
| — | Auf |
Cloud-Modelle
Ollama-Omega ist versionsunabhängig. Wenn Ihr Ollama-Daemon Cloud-gehostete Modelle bereitstellt (z. B. qwen3.5:397b-cloud über API-Proxy), sind diese über dieselben 6 Tools zugänglich – es ist keine Konfigurationsänderung erforderlich.
Dateistruktur
Ollama-Omega/
ollama_mcp_server.py # MCP server (~307 lines) — hardened, single-file
pyproject.toml # Package metadata, CLI entry, PyPI classifiers
requirements.txt # mcp>=1.0.0, httpx>=0.27.0
glama.json # Glama MCP directory registration
LICENSE # MIT
CHANGELOG.md # Version history
tests/
test_server.py # 48 tests — tools, dispatch, errors, SSRF, config
examples/
basic_usage.py # Programmatic MCP client example
docs/
BUILD_SPEC.md # Internal build specificationTests
pip install pytest
python -m pytest tests/ -v48 Tests decken ab:
Tool-Definitionen – Schema-Validierung, erforderliche Felder, Beschreibungen
Hilfsfunktionen – Optionen-Builder, Validierung, JSON-Sicherheit, Fehlerformatierung
Dispatcher – alle 6 Tool-Pfade mit gemockten HTTP-Antworten
Fehlerbehandlung – Verbindung, Timeout, HTTP-Status, Ausnahme-Bereinigung
Konfiguration – Umgebungs-Standards, SSRF-Abschwächung, Server-Identität
Begleit-Server
Ollama-Omega ist die Transportschicht für das Omega Brain MCP – episches Gedächtnis über Sitzungen hinweg + 10-Gate VERITAS Build-Pipeline. Zusammen bilden sie den souveränen Intelligence-Stack.
Lizenz
MIT
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/VrtxOmega/Ollama-Omega'
If you have feedback or need assistance with the MCP directory API, please join our Discord server