Skip to main content
Glama

mcp-ollama

MCP-Server, der lokale Ollama-Modelle kapselt, um API-kostenpflichtige Orchestratoren zu entlasten.

Stellt 9 Tools bereit, die Aufgaben an ein lokales Modell weiterleiten (Textgenerierung, Zusammenfassung, Code-Aufgaben, mechanische Transformationen, Entwurf von Commits/PRs/Changelogs). Der Orchestrator entscheidet, was lokal verarbeitet wird; dieser Server übernimmt das Routing.

  • Transport: stdio

  • Laufzeit: Node 18+

  • Standardmodell: hermes3:8b (überschreibbar über OLLAMA_MODEL)

  • Ollama-Host: http://localhost:11434 (überschreibbar über OLLAMA_HOST)

  • Lizenz: Apache-2.0

Installation

npm install
npm run build

Sie benötigen außerdem eine laufende Ollama-Instanz, bei der mindestens ein Modell heruntergeladen wurde:

ollama pull hermes3:8b
ollama pull qwen2.5-coder:32b  # optional, for local_code

Ausführung (stdio)

node dist/index.js

Claude Code konfigurieren

claude mcp add --transport stdio ollama -- node /absolute/path/to/mcp-ollama/dist/index.js

Oder in ~/.claude/settings.json:

{
  "mcpServers": {
    "ollama": {
      "transport": "stdio",
      "command": "node",
      "args": ["/absolute/path/to/mcp-ollama/dist/index.js"],
      "env": {
        "OLLAMA_HOST": "http://localhost:11434",
        "OLLAMA_MODEL": "hermes3:8b"
      }
    }
  }
}

Tools

Tool

Zweck

local_generate

Allzweck-Generierung mit System- + Benutzer-Prompt

local_summarize

Zusammenfassung eines Textblocks

local_analyze

Analyse von Text anhand einer spezifischen Frage

local_draft

Entwurf von Inhalten in einem bestimmten Stil

local_code

Code-Aufgaben: Docstring / Test / Erklärung / Review / Typen / Refactoring-Vorschläge

local_diff

Diff-basierte Aufgaben: Commit-Nachricht / PR-Beschreibung / Changelog / Zusammenfassung / Auswirkungen

local_transform

Mechanische Code-Transformationen

local_models

Auflisten der auf dem lokalen Ollama-Host verfügbaren Modelle

local_pull

Herunterladen eines Modells auf den lokalen Ollama-Host

Die vollständigen Tool-Schemas werden über MCP-Introspektion bereitgestellt.

Umgebungsvariablen

Variable

Standard

Zweck

OLLAMA_HOST

http://localhost:11434

Ollama HTTP-Endpunkt

OLLAMA_MODEL

hermes3:8b

Standardmodell, wenn ein Tool-Aufruf model auslässt

Warum

Orchestratoren, die nach Token abgerechnet werden (Claude Code, Cursor, die Anthropic API), kosten bei jeder Klassifizierung, jedem Docstring und jeder Commit-Nachricht Geld. Die meiste Arbeit erfordert kein Opus oder GPT-5. Wenn diese Aufgaben auf dem eigenen Rechner an Ollama weitergeleitet werden, sind sie kostenlos und schneller. mcp-ollama ist die Routing-Schnittstelle dafür.

Teil von ALTER

mcp-ollama wird von ALTER als Teil der Identitätsinfrastruktur für die KI-Wirtschaft gepflegt. Der ALTER-Identitäts-MCP-Server wird unter mcp.truealter.com gehostet.

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/true-alter/mcp-ollama'

If you have feedback or need assistance with the MCP directory API, please join our Discord server