Skip to main content
Glama

Status Version Stack License Tests

Ollama-Omega MCP server


Ollamaエコシステム全体(ローカルモデルからクラウドホストの巨大モデルまで)を、あらゆるMCP対応IDEにブリッジする堅牢なMCPサーバーです。ラッパースクリプトや肥大化したSDKは不要。2つの依存関係を持つ単一のPythonファイルのみで構成されています。

設計原則: Ollama-OmegaはOllamaを抽象化しません。6つの検証済みでエラーハンドリングされたMCPツールを通じて、情報損失ゼロでOllama APIの全機能を提供します。

アーキテクチャ

┌─────────────────────────────────────────────────────┐
│                    MCP Client (IDE)                  │
│         Claude Desktop / Antigravity / etc.          │
└──────────────────────┬──────────────────────────────┘
                       │ stdio (JSON-RPC 2.0)
┌──────────────────────▼──────────────────────────────┐
│              ollama_mcp_server.py                     │
│  ┌──────────┐ ┌──────────┐ ┌───────────────────┐    │
│  │ Validator│ │ Dispatch │ │ Singleton httpx   │    │
│  │ + Schema │→│ Router   │→│ AsyncClient       │    │
│  └──────────┘ └──────────┘ │ (no redirects)    │    │
│                             └─────────┬─────────┘    │
└───────────────────────────────────────┼──────────────┘
                                        │ HTTP
┌───────────────────────────────────────▼──────────────┐
│                  Ollama Daemon                        │
│    Local models (GPU) │ Cloud models (API proxy)      │
└───────────────────────────────────────────────────────┘

ツール (6)

ツール

目的

ollama_health

接続確認および現在実行中/ロード済みのモデル一覧の取得

ollama_list_models

サイズ、ロード状態、更新日を含む利用可能な全モデルの一覧表示

ollama_chat

メッセージ履歴とシステムプロンプトを含むチャット完了リクエストの送信

ollama_generate

チャット履歴なしで、指定されたプロンプトに対する応答を生成

ollama_show_model

特定のモデルに関する詳細情報(ライセンス、パラメータ)の表示

ollama_pull_model

Ollamaライブラリからモデルをダウンロード

ハードニング監査

#

カテゴリ

対策

1

SSRF

httpxクライアントでのリダイレクトを無効化 (follow_redirects=False)

2

リソースリーク

シングルトン AsyncClient — サーバーのライフサイクル全体で1つの接続プールを使用

3

入力検証

HTTP呼び出し前の全ツールに対する _validate_required() ゲート

4

JSONの安全性

_safe_json() ラッパー — 不正な形式の応答でもクラッシュしない

5

構造化ログ

生の print() ではなく logging モジュール経由の全stderr出力

6

DRYペイロード

_build_options() による温度/トークンマッピングの集約

7

エラーのサニタイズ

_error() ヘルパー — スタックトレースや内部情報をクライアントに漏洩させない

クイックスタート

要件

  • Python 3.11+

  • pip install mcp httpx

Claude Desktop / Antigravityでの設定

{
  "mcpServers": {
    "ollama": {
      "command": "uv",
      "args": [
        "--directory",
        "path/to/ollama-mcp",
        "run",
        "python",
        "ollama_mcp_server.py"
      ],
      "env": {
        "PYTHONUTF8": "1",
        "OLLAMA_HOST": "http://localhost:11434",
        "OLLAMA_TIMEOUT": "300"
      }
    }
  }
}

環境変数

変数

デフォルト

説明

OLLAMA_HOST

http://localhost:11434

OllamaデーモンのURL

OLLAMA_TIMEOUT

300

リクエストタイムアウト(秒)(大規模モデルのプルやクラウド推論用に長めに設定)

PYTHONUTF8

WindowsでのUnicode安全性のために 1 に設定

クラウドモデル

Ollama-Omegaはバージョンに依存しません。Ollamaデーモンがクラウドホストモデル(例:APIプロキシ経由の qwen3.5:397b-cloud)を公開している場合、設定変更なしで同じ6つのツールを通じてアクセス可能です。

ファイル構造

Ollama-Omega/
  ollama_mcp_server.py     # MCP server (~307 lines) — hardened, single-file
  pyproject.toml            # Package metadata, CLI entry, PyPI classifiers
  requirements.txt          # mcp>=1.0.0, httpx>=0.27.0
  glama.json                # Glama MCP directory registration
  LICENSE                   # MIT
  CHANGELOG.md              # Version history
  tests/
    test_server.py           # 48 tests — tools, dispatch, errors, SSRF, config
  examples/
    basic_usage.py           # Programmatic MCP client example
  docs/
    BUILD_SPEC.md            # Internal build specification

テスト

pip install pytest
python -m pytest tests/ -v

以下の48のテストを網羅:

  • ツール定義 — スキーマ検証、必須フィールド、説明

  • ヘルパー関数 — オプションビルダー、検証、JSONの安全性、エラーフォーマット

  • ディスパッチャー — モックされたHTTP応答による6つのツールパスすべて

  • エラーハンドリング — 接続、タイムアウト、HTTPステータス、例外のサニタイズ

  • 設定 — 環境変数のデフォルト値、SSRF対策、サーバーID

コンパニオンサーバー

Ollama-Omegaは Omega Brain MCP のトランスポート層です。これはセッション横断的なエピソード記憶と10ゲートのVERITASビルドパイプラインを備えています。これらを組み合わせることで、ソブリンインテリジェンススタックが形成されます。

ライセンス

MIT


Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/VrtxOmega/Ollama-Omega'

If you have feedback or need assistance with the MCP directory API, please join our Discord server