mcp-ollama
mcp-ollama
封装本地 Ollama 模型的 MCP 服务器,用于从按 API 计费的编排器中分流任务。
提供 9 个将工作传递给本地模型的工具(文本生成、摘要、代码任务、机械转换、提交/PR/变更日志起草)。编排器决定哪些任务路由到本地;此服务器负责执行路由。
传输方式: stdio
运行时: Node 18+
默认模型:
hermes3:8b(可通过OLLAMA_MODEL覆盖)Ollama 主机:
http://localhost:11434(可通过OLLAMA_HOST覆盖)许可证: Apache-2.0
安装
npm install
npm run build你还需要一个正在运行的 Ollama 实例,并至少拉取了一个模型:
ollama pull hermes3:8b
ollama pull qwen2.5-coder:32b # optional, for local_code运行 (stdio)
node dist/index.js配置 Claude Code
claude mcp add --transport stdio ollama -- node /absolute/path/to/mcp-ollama/dist/index.js或者在 ~/.claude/settings.json 中配置:
{
"mcpServers": {
"ollama": {
"transport": "stdio",
"command": "node",
"args": ["/absolute/path/to/mcp-ollama/dist/index.js"],
"env": {
"OLLAMA_HOST": "http://localhost:11434",
"OLLAMA_MODEL": "hermes3:8b"
}
}
}
}工具
工具 | 用途 |
| 使用系统提示词 + 用户提示词进行通用生成 |
| 总结一段文本 |
| 针对特定问题分析文本 |
| 以特定风格起草内容 |
| 代码任务:文档字符串 / 测试 / 解释 / 审查 / 类型 / 重构建议 |
| 差异驱动任务:提交信息 / PR 描述 / 变更日志 / 摘要 / 影响 |
| 机械代码转换 |
| 列出本地 Ollama 主机上可用的模型 |
| 将模型拉取到本地 Ollama 主机 |
完整的工具架构通过 MCP 自省机制公开。
环境变量
变量 | 默认值 | 用途 |
|
| Ollama HTTP 端点 |
|
| 当工具调用省略 |
为什么
按 Token 计费的编排器(Claude Code、Cursor、Anthropic API)会对每一次分类、每一个文档字符串、每一条提交信息收费。大部分工作并不需要 Opus 或 GPT-5。将这些工作路由到同一台机器上的 Ollama,不仅免费而且速度更快。mcp-ollama 就是这个路由接口。
ALTER 的一部分
mcp-ollama 由 ALTER 维护,作为 AI 经济身份基础设施的一部分。ALTER 身份 MCP 服务器托管在 mcp.truealter.com。
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/true-alter/mcp-ollama'
If you have feedback or need assistance with the MCP directory API, please join our Discord server