Skip to main content
Glama

mcp-ollama

Servidor MCP que envuelve modelos locales de Ollama para descargar tareas de orquestadores con precios basados en API.

Expone 9 herramientas que envían el trabajo a un modelo local (generación de texto, resumen, tareas de código, transformaciones mecánicas, redacción de commits/PR/changelogs). El orquestador decide qué enviar localmente; este servidor realiza el enrutamiento.

  • Transporte: stdio

  • Runtime: Node 18+

  • Modelo predeterminado: hermes3:8b (se puede sobrescribir mediante OLLAMA_MODEL)

  • Host de Ollama: http://localhost:11434 (se puede sobrescribir mediante OLLAMA_HOST)

  • Licencia: Apache-2.0

Instalación

npm install
npm run build

También necesitas una instancia de Ollama en ejecución con al menos un modelo descargado:

ollama pull hermes3:8b
ollama pull qwen2.5-coder:32b  # optional, for local_code

Ejecución (stdio)

node dist/index.js

Configurar Claude Code

claude mcp add --transport stdio ollama -- node /absolute/path/to/mcp-ollama/dist/index.js

O en ~/.claude/settings.json:

{
  "mcpServers": {
    "ollama": {
      "transport": "stdio",
      "command": "node",
      "args": ["/absolute/path/to/mcp-ollama/dist/index.js"],
      "env": {
        "OLLAMA_HOST": "http://localhost:11434",
        "OLLAMA_MODEL": "hermes3:8b"
      }
    }
  }
}

Herramientas

Herramienta

Propósito

local_generate

Generación de propósito general con prompt de sistema + usuario

local_summarize

Resumir un bloque de texto

local_analyze

Analizar texto en función de una pregunta específica

local_draft

Redactar contenido en un estilo determinado

local_code

Tareas de código: docstring / test / explicación / revisión / tipos / sugerencia-de-refactorización

local_diff

Tareas basadas en diff: mensaje-de-commit / descripción-de-pr / changelog / resumen / impacto

local_transform

Transformaciones mecánicas de código

local_models

Listar modelos disponibles en el host local de Ollama

local_pull

Descargar un modelo en el host local de Ollama

Los esquemas completos de las herramientas se exponen a través de la introspección de MCP.

Variables de entorno

Variable

Predeterminado

Propósito

OLLAMA_HOST

http://localhost:11434

Endpoint HTTP de Ollama

OLLAMA_MODEL

hermes3:8b

Modelo predeterminado cuando una llamada a herramienta omite model

Por qué

Los orquestadores con precios por token (Claude Code, Cursor, la API de Anthropic) cobran por cada clasificación, cada docstring, cada mensaje de commit. La mayor parte de ese trabajo no necesita Opus o GPT-5. Al enrutarse a Ollama en la misma máquina, el mismo trabajo es gratuito y más rápido. mcp-ollama es la superficie de enrutamiento.

Parte de ALTER

mcp-ollama es mantenido por ALTER como parte de la infraestructura de identidad para la economía de la IA. El servidor MCP de identidad de ALTER se aloja en mcp.truealter.com.

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/true-alter/mcp-ollama'

If you have feedback or need assistance with the MCP directory API, please join our Discord server