MCP Ollama Server

by emgeee
Verified

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Allows integration with Ollama, enabling use of Ollama models through the MCP interface. Provides capabilities to list models, get model details, and ask questions to Ollama models.

MCP Ollama

Un servidor de Protocolo de Contexto de Modelo (MCP) para integrar Ollama con Claude Desktop u otros clientes MCP.

Requisitos

  • Python 3.10 o superior
  • Ollama instalado y funcionando ( https://ollama.com/download )
  • Al menos un modelo extraído con Ollama (por ejemplo, ollama pull llama2 )

Configurar Claude Desktop

Agregue a su configuración de Claude Desktop ( ~/Library/Application Support/Claude/claude_desktop_config.json en macOS, %APPDATA%\Claude\claude_desktop_config.json en Windows):

{ "mcpServers": { "ollama": { "command": "uvx", "args": [ "mcp-ollama" ] } } }

Desarrollo

Instalar en modo de desarrollo:

git clone https://github.com/yourusername/mcp-ollama.git cd mcp-ollama uv sync

Prueba con MCP Inspector:

mcp dev src/mcp_ollama/server.py

Características

El servidor proporciona cuatro herramientas principales:

  • list_models - Lista todos los modelos de Ollama descargados
  • show_model - Obtener información detallada sobre un modelo específico
  • ask_model - Haz una pregunta a un modelo específico

Licencia

Instituto Tecnológico de Massachusetts (MIT)

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

El servidor MCP Ollama integra modelos Ollama con clientes MCP, lo que permite a los usuarios enumerar modelos, obtener información detallada e interactuar con ellos a través de preguntas.

  1. Requirements
    1. Configure Claude Desktop
    2. Development
  2. Features
    1. License
      ID: h0t3210s62