Skip to main content
Glama

MCP Ollama

Un servidor de Protocolo de Contexto de Modelo (MCP) para integrar Ollama con Claude Desktop u otros clientes MCP.

Requisitos

  • Python 3.10 o superior

  • Ollama instalado y funcionando ( https://ollama.com/download )

  • Al menos un modelo extraído con Ollama (por ejemplo, ollama pull llama2 )

Configurar Claude Desktop

Agregue a su configuración de Claude Desktop ( ~/Library/Application Support/Claude/claude_desktop_config.json en macOS, %APPDATA%\Claude\claude_desktop_config.json en Windows):

{ "mcpServers": { "ollama": { "command": "uvx", "args": [ "mcp-ollama" ] } } }

Desarrollo

Instalar en modo de desarrollo:

git clone https://github.com/yourusername/mcp-ollama.git cd mcp-ollama uv sync

Prueba con MCP Inspector:

mcp dev src/mcp_ollama/server.py

Related MCP server: Ollama MCP Server

Características

El servidor proporciona cuatro herramientas principales:

  • list_models - Lista todos los modelos de Ollama descargados

  • show_model - Obtener información detallada sobre un modelo específico

  • ask_model - Haz una pregunta a un modelo específico

Licencia

Instituto Tecnológico de Massachusetts (MIT)

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/emgeee/mcp-ollama'

If you have feedback or need assistance with the MCP directory API, please join our Discord server