Ollama-Omega
Ollamaエコシステム全体(ローカルモデルからクラウドホストの巨大モデルまで)を、あらゆるMCP対応IDEにブリッジする堅牢なMCPサーバーです。ラッパースクリプトや肥大化したSDKは不要。2つの依存関係を持つ単一のPythonファイルのみで構成されています。
設計原則: Ollama-OmegaはOllamaを抽象化しません。6つの検証済みでエラーハンドリングされたMCPツールを通じて、情報損失ゼロでOllama APIの全機能を提供します。
アーキテクチャ
┌─────────────────────────────────────────────────────┐
│ MCP Client (IDE) │
│ Claude Desktop / Antigravity / etc. │
└──────────────────────┬──────────────────────────────┘
│ stdio (JSON-RPC 2.0)
┌──────────────────────▼──────────────────────────────┐
│ ollama_mcp_server.py │
│ ┌──────────┐ ┌──────────┐ ┌───────────────────┐ │
│ │ Validator│ │ Dispatch │ │ Singleton httpx │ │
│ │ + Schema │→│ Router │→│ AsyncClient │ │
│ └──────────┘ └──────────┘ │ (no redirects) │ │
│ └─────────┬─────────┘ │
└───────────────────────────────────────┼──────────────┘
│ HTTP
┌───────────────────────────────────────▼──────────────┐
│ Ollama Daemon │
│ Local models (GPU) │ Cloud models (API proxy) │
└───────────────────────────────────────────────────────┘ツール (6)
ツール | 目的 |
| 接続確認および現在実行中/ロード済みのモデル一覧の取得 |
| サイズ、ロード状態、更新日を含む利用可能な全モデルの一覧表示 |
| メッセージ履歴とシステムプロンプトを含むチャット完了リクエストの送信 |
| チャット履歴なしで、指定されたプロンプトに対する応答を生成 |
| 特定のモデルに関する詳細情報(ライセンス、パラメータ)の表示 |
| Ollamaライブラリからモデルをダウンロード |
ハードニング監査
# | カテゴリ | 対策 |
1 | SSRF | httpxクライアントでのリダイレクトを無効化 ( |
2 | リソースリーク | シングルトン |
3 | 入力検証 | HTTP呼び出し前の全ツールに対する |
4 | JSONの安全性 |
|
5 | 構造化ログ | 生の |
6 | DRYペイロード |
|
7 | エラーのサニタイズ |
|
クイックスタート
要件
Python 3.11+
pip install mcp httpx
Claude Desktop / Antigravityでの設定
{
"mcpServers": {
"ollama": {
"command": "uv",
"args": [
"--directory",
"path/to/ollama-mcp",
"run",
"python",
"ollama_mcp_server.py"
],
"env": {
"PYTHONUTF8": "1",
"OLLAMA_HOST": "http://localhost:11434",
"OLLAMA_TIMEOUT": "300"
}
}
}
}環境変数
変数 | デフォルト | 説明 |
|
| OllamaデーモンのURL |
|
| リクエストタイムアウト(秒)(大規模モデルのプルやクラウド推論用に長めに設定) |
| — | WindowsでのUnicode安全性のために |
クラウドモデル
Ollama-Omegaはバージョンに依存しません。Ollamaデーモンがクラウドホストモデル(例:APIプロキシ経由の qwen3.5:397b-cloud)を公開している場合、設定変更なしで同じ6つのツールを通じてアクセス可能です。
ファイル構造
Ollama-Omega/
ollama_mcp_server.py # MCP server (~307 lines) — hardened, single-file
pyproject.toml # Package metadata, CLI entry, PyPI classifiers
requirements.txt # mcp>=1.0.0, httpx>=0.27.0
glama.json # Glama MCP directory registration
LICENSE # MIT
CHANGELOG.md # Version history
tests/
test_server.py # 48 tests — tools, dispatch, errors, SSRF, config
examples/
basic_usage.py # Programmatic MCP client example
docs/
BUILD_SPEC.md # Internal build specificationテスト
pip install pytest
python -m pytest tests/ -v以下の48のテストを網羅:
ツール定義 — スキーマ検証、必須フィールド、説明
ヘルパー関数 — オプションビルダー、検証、JSONの安全性、エラーフォーマット
ディスパッチャー — モックされたHTTP応答による6つのツールパスすべて
エラーハンドリング — 接続、タイムアウト、HTTPステータス、例外のサニタイズ
設定 — 環境変数のデフォルト値、SSRF対策、サーバーID
コンパニオンサーバー
Ollama-Omegaは Omega Brain MCP のトランスポート層です。これはセッション横断的なエピソード記憶と10ゲートのVERITASビルドパイプラインを備えています。これらを組み合わせることで、ソブリンインテリジェンススタックが形成されます。
ライセンス
MIT
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/VrtxOmega/Ollama-Omega'
If you have feedback or need assistance with the MCP directory API, please join our Discord server