Skip to main content
Glama

mcp-ollama

封装本地 Ollama 模型的 MCP 服务器,用于从按 API 计费的编排器中分流任务。

提供 9 个将工作传递给本地模型的工具(文本生成、摘要、代码任务、机械转换、提交/PR/变更日志起草)。编排器决定哪些任务路由到本地;此服务器负责执行路由。

  • 传输方式: stdio

  • 运行时: Node 18+

  • 默认模型: hermes3:8b(可通过 OLLAMA_MODEL 覆盖)

  • Ollama 主机: http://localhost:11434(可通过 OLLAMA_HOST 覆盖)

  • 许可证: Apache-2.0

安装

npm install
npm run build

你还需要一个正在运行的 Ollama 实例,并至少拉取了一个模型:

ollama pull hermes3:8b
ollama pull qwen2.5-coder:32b  # optional, for local_code

运行 (stdio)

node dist/index.js

配置 Claude Code

claude mcp add --transport stdio ollama -- node /absolute/path/to/mcp-ollama/dist/index.js

或者在 ~/.claude/settings.json 中配置:

{
  "mcpServers": {
    "ollama": {
      "transport": "stdio",
      "command": "node",
      "args": ["/absolute/path/to/mcp-ollama/dist/index.js"],
      "env": {
        "OLLAMA_HOST": "http://localhost:11434",
        "OLLAMA_MODEL": "hermes3:8b"
      }
    }
  }
}

工具

工具

用途

local_generate

使用系统提示词 + 用户提示词进行通用生成

local_summarize

总结一段文本

local_analyze

针对特定问题分析文本

local_draft

以特定风格起草内容

local_code

代码任务:文档字符串 / 测试 / 解释 / 审查 / 类型 / 重构建议

local_diff

差异驱动任务:提交信息 / PR 描述 / 变更日志 / 摘要 / 影响

local_transform

机械代码转换

local_models

列出本地 Ollama 主机上可用的模型

local_pull

将模型拉取到本地 Ollama 主机

完整的工具架构通过 MCP 自省机制公开。

环境变量

变量

默认值

用途

OLLAMA_HOST

http://localhost:11434

Ollama HTTP 端点

OLLAMA_MODEL

hermes3:8b

当工具调用省略 model 参数时的默认模型

为什么

按 Token 计费的编排器(Claude Code、Cursor、Anthropic API)会对每一次分类、每一个文档字符串、每一条提交信息收费。大部分工作并不需要 Opus 或 GPT-5。将这些工作路由到同一台机器上的 Ollama,不仅免费而且速度更快。mcp-ollama 就是这个路由接口。

ALTER 的一部分

mcp-ollamaALTER 维护,作为 AI 经济身份基础设施的一部分。ALTER 身份 MCP 服务器托管在 mcp.truealter.com

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/true-alter/mcp-ollama'

If you have feedback or need assistance with the MCP directory API, please join our Discord server