MCP Ollama
Un servidor de Protocolo de Contexto de Modelo (MCP) para integrar Ollama con Claude Desktop u otros clientes MCP.
Requisitos
Python 3.10 o superior
Ollama instalado y funcionando ( https://ollama.com/download )
Al menos un modelo extraído con Ollama (por ejemplo,
ollama pull llama2)
Configurar Claude Desktop
Agregue a su configuración de Claude Desktop ( ~/Library/Application Support/Claude/claude_desktop_config.json en macOS, %APPDATA%\Claude\claude_desktop_config.json en Windows):
{
"mcpServers": {
"ollama": {
"command": "uvx",
"args": [
"mcp-ollama"
]
}
}
}Desarrollo
Instalar en modo de desarrollo:
git clone https://github.com/yourusername/mcp-ollama.git
cd mcp-ollama
uv syncPrueba con MCP Inspector:
mcp dev src/mcp_ollama/server.pyRelated MCP server: Ollama MCP Server
Características
El servidor proporciona cuatro herramientas principales:
list_models- Lista todos los modelos de Ollama descargadosshow_model- Obtener información detallada sobre un modelo específicoask_model- Haz una pregunta a un modelo específico
Licencia
Instituto Tecnológico de Massachusetts (MIT)