Ollama-Omega
一个加固型的 MCP 服务器,将完整的 Ollama 生态系统(包括本地模型和云端托管的大型模型)桥接到任何兼容 MCP 的 IDE 中。无需包装脚本,无需臃肿的 SDK。仅一个包含两个依赖的 Python 文件。
设计原则: Ollama-Omega 不会对 Ollama 进行抽象。它通过 6 个经过验证、具备错误处理功能的 MCP 工具完整暴露 Ollama API 接口,且零信息丢失。
架构
┌─────────────────────────────────────────────────────┐
│ MCP Client (IDE) │
│ Claude Desktop / Antigravity / etc. │
└──────────────────────┬──────────────────────────────┘
│ stdio (JSON-RPC 2.0)
┌──────────────────────▼──────────────────────────────┐
│ ollama_mcp_server.py │
│ ┌──────────┐ ┌──────────┐ ┌───────────────────┐ │
│ │ Validator│ │ Dispatch │ │ Singleton httpx │ │
│ │ + Schema │→│ Router │→│ AsyncClient │ │
│ └──────────┘ └──────────┘ │ (no redirects) │ │
│ └─────────┬─────────┘ │
└───────────────────────────────────────┼──────────────┘
│ HTTP
┌───────────────────────────────────────▼──────────────┐
│ Ollama Daemon │
│ Local models (GPU) │ Cloud models (API proxy) │
└───────────────────────────────────────────────────────┘工具 (6)
工具 | 用途 |
| 检查连接性并列出当前运行/加载的模型 |
| 列出所有可用模型及其大小、加载状态和修改日期 |
| 发送带有消息历史和系统提示词的聊天补全请求 |
| 为给定的提示词生成响应,不包含聊天历史 |
| 显示特定模型的详细信息(许可证、参数) |
| 从 Ollama 库下载模型 |
加固审计
# | 类别 | 防护措施 |
1 | SSRF | 在 httpx 客户端中禁用重定向 ( |
2 | 资源泄漏 | 单例 |
3 | 输入验证 | 在任何 HTTP 调用前,每个工具均设有 |
4 | JSON 安全 |
|
5 | 结构化日志 | 所有 stderr 输出均通过 |
6 | DRY 有效载荷 |
|
7 | 错误脱敏 |
|
快速入门
要求
Python 3.11+
pip install mcp httpx
在 Claude Desktop / Antigravity 中配置
{
"mcpServers": {
"ollama": {
"command": "uv",
"args": [
"--directory",
"path/to/ollama-mcp",
"run",
"python",
"ollama_mcp_server.py"
],
"env": {
"PYTHONUTF8": "1",
"OLLAMA_HOST": "http://localhost:11434",
"OLLAMA_TIMEOUT": "300"
}
}
}
}环境变量
变量 | 默认值 | 描述 |
|
| Ollama 守护进程 URL |
|
| 请求超时时间(秒)(针对大型模型拉取/云端推理设置较长) |
| — | 设置为 |
云端模型
Ollama-Omega 与版本无关。如果您的 Ollama 守护进程通过 API 代理暴露了云端托管模型(例如 qwen3.5:397b-cloud),它们可以通过相同的 6 个工具进行访问 — 无需更改任何配置。
文件结构
Ollama-Omega/
ollama_mcp_server.py # MCP server (~307 lines) — hardened, single-file
pyproject.toml # Package metadata, CLI entry, PyPI classifiers
requirements.txt # mcp>=1.0.0, httpx>=0.27.0
glama.json # Glama MCP directory registration
LICENSE # MIT
CHANGELOG.md # Version history
tests/
test_server.py # 48 tests — tools, dispatch, errors, SSRF, config
examples/
basic_usage.py # Programmatic MCP client example
docs/
BUILD_SPEC.md # Internal build specification测试
pip install pytest
python -m pytest tests/ -v48 项测试涵盖:
工具定义 — 模式验证、必填字段、描述
辅助函数 — 选项构建器、验证、JSON 安全性、错误格式化
调度器 — 所有 6 个工具路径及模拟的 HTTP 响应
错误处理 — 连接、超时、HTTP 状态、异常脱敏
配置 — 环境变量默认值、SSRF 防护、服务器标识
配套服务器
Ollama-Omega 是 Omega Brain MCP 的传输层 — 提供跨会话情景记忆 + 10 门控 VERITAS 构建流水线。它们共同构成了主权智能技术栈。
许可证
MIT
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/VrtxOmega/Ollama-Omega'
If you have feedback or need assistance with the MCP directory API, please join our Discord server