Skip to main content
Glama

Status Version Stack License Tests

Ollama-Omega MCP server


一个加固型的 MCP 服务器,将完整的 Ollama 生态系统(包括本地模型和云端托管的大型模型)桥接到任何兼容 MCP 的 IDE 中。无需包装脚本,无需臃肿的 SDK。仅一个包含两个依赖的 Python 文件。

设计原则: Ollama-Omega 不会对 Ollama 进行抽象。它通过 6 个经过验证、具备错误处理功能的 MCP 工具完整暴露 Ollama API 接口,且零信息丢失。

架构

┌─────────────────────────────────────────────────────┐
│                    MCP Client (IDE)                  │
│         Claude Desktop / Antigravity / etc.          │
└──────────────────────┬──────────────────────────────┘
                       │ stdio (JSON-RPC 2.0)
┌──────────────────────▼──────────────────────────────┐
│              ollama_mcp_server.py                     │
│  ┌──────────┐ ┌──────────┐ ┌───────────────────┐    │
│  │ Validator│ │ Dispatch │ │ Singleton httpx   │    │
│  │ + Schema │→│ Router   │→│ AsyncClient       │    │
│  └──────────┘ └──────────┘ │ (no redirects)    │    │
│                             └─────────┬─────────┘    │
└───────────────────────────────────────┼──────────────┘
                                        │ HTTP
┌───────────────────────────────────────▼──────────────┐
│                  Ollama Daemon                        │
│    Local models (GPU) │ Cloud models (API proxy)      │
└───────────────────────────────────────────────────────┘

工具 (6)

工具

用途

ollama_health

检查连接性并列出当前运行/加载的模型

ollama_list_models

列出所有可用模型及其大小、加载状态和修改日期

ollama_chat

发送带有消息历史和系统提示词的聊天补全请求

ollama_generate

为给定的提示词生成响应,不包含聊天历史

ollama_show_model

显示特定模型的详细信息(许可证、参数)

ollama_pull_model

从 Ollama 库下载模型

加固审计

#

类别

防护措施

1

SSRF

在 httpx 客户端中禁用重定向 (follow_redirects=False)

2

资源泄漏

单例 AsyncClient — 服务器生命周期内仅使用一个连接池

3

输入验证

在任何 HTTP 调用前,每个工具均设有 _validate_required() 门控

4

JSON 安全

_safe_json() 包装器 — 绝不会因格式错误的响应而崩溃

5

结构化日志

所有 stderr 输出均通过 logging 模块,而非原始 print()

6

DRY 有效载荷

_build_options() 集中处理 temperature/token 映射

7

错误脱敏

_error() 辅助函数 — 无堆栈跟踪,不向客户端泄露内部信息

快速入门

要求

  • Python 3.11+

  • pip install mcp httpx

在 Claude Desktop / Antigravity 中配置

{
  "mcpServers": {
    "ollama": {
      "command": "uv",
      "args": [
        "--directory",
        "path/to/ollama-mcp",
        "run",
        "python",
        "ollama_mcp_server.py"
      ],
      "env": {
        "PYTHONUTF8": "1",
        "OLLAMA_HOST": "http://localhost:11434",
        "OLLAMA_TIMEOUT": "300"
      }
    }
  }
}

环境变量

变量

默认值

描述

OLLAMA_HOST

http://localhost:11434

Ollama 守护进程 URL

OLLAMA_TIMEOUT

300

请求超时时间(秒)(针对大型模型拉取/云端推理设置较长)

PYTHONUTF8

设置为 1 以确保 Windows Unicode 安全

云端模型

Ollama-Omega 与版本无关。如果您的 Ollama 守护进程通过 API 代理暴露了云端托管模型(例如 qwen3.5:397b-cloud),它们可以通过相同的 6 个工具进行访问 — 无需更改任何配置。

文件结构

Ollama-Omega/
  ollama_mcp_server.py     # MCP server (~307 lines) — hardened, single-file
  pyproject.toml            # Package metadata, CLI entry, PyPI classifiers
  requirements.txt          # mcp>=1.0.0, httpx>=0.27.0
  glama.json                # Glama MCP directory registration
  LICENSE                   # MIT
  CHANGELOG.md              # Version history
  tests/
    test_server.py           # 48 tests — tools, dispatch, errors, SSRF, config
  examples/
    basic_usage.py           # Programmatic MCP client example
  docs/
    BUILD_SPEC.md            # Internal build specification

测试

pip install pytest
python -m pytest tests/ -v

48 项测试涵盖:

  • 工具定义 — 模式验证、必填字段、描述

  • 辅助函数 — 选项构建器、验证、JSON 安全性、错误格式化

  • 调度器 — 所有 6 个工具路径及模拟的 HTTP 响应

  • 错误处理 — 连接、超时、HTTP 状态、异常脱敏

  • 配置 — 环境变量默认值、SSRF 防护、服务器标识

配套服务器

Ollama-Omega 是 Omega Brain MCP 的传输层 — 提供跨会话情景记忆 + 10 门控 VERITAS 构建流水线。它们共同构成了主权智能技术栈。

许可证

MIT


Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/VrtxOmega/Ollama-Omega'

If you have feedback or need assistance with the MCP directory API, please join our Discord server