MCP Ollama
Un servidor de Protocolo de Contexto de Modelo (MCP) para integrar Ollama con Claude Desktop u otros clientes MCP.
Requisitos
- Python 3.10 o superior
- Ollama instalado y funcionando ( https://ollama.com/download )
- Al menos un modelo extraído con Ollama (por ejemplo,
ollama pull llama2
)
Configurar Claude Desktop
Agregue a su configuración de Claude Desktop ( ~/Library/Application Support/Claude/claude_desktop_config.json
en macOS, %APPDATA%\Claude\claude_desktop_config.json
en Windows):
Desarrollo
Instalar en modo de desarrollo:
Prueba con MCP Inspector:
Características
El servidor proporciona cuatro herramientas principales:
list_models
- Lista todos los modelos de Ollama descargadosshow_model
- Obtener información detallada sobre un modelo específicoask_model
- Haz una pregunta a un modelo específico
Licencia
Instituto Tecnológico de Massachusetts (MIT)
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
El servidor MCP Ollama integra modelos Ollama con clientes MCP, lo que permite a los usuarios enumerar modelos, obtener información detallada e interactuar con ellos a través de preguntas.
Related Resources
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.Last updated -12428JavaScriptMIT License
- -securityAlicense-qualityA simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.Last updated -26PythonMIT License
- -securityFlicense-qualityAn interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.Last updated -28TypeScript
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -16547TypeScriptAGPL 3.0