local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Provides access to Ollama's local LLM models through a Model Context Protocol server, allowing listing, pulling, and chatting with Ollama models
Servidor MCP de Ollama
Un servidor MCP (Protocolo de contexto de modelo) para Ollama que permite una integración perfecta entre los modelos LLM locales de Ollama y aplicaciones compatibles con MCP como Claude Desktop.
Características
- Lista de modelos Ollama disponibles
- Saca nuevos modelos de Ollama
- Chatea con modelos usando la API de chat de Ollama
- Obtenga información detallada del modelo
- Gestión automática de puertos
- Configuración de variables de entorno
Prerrequisitos
- Node.js (v16 o superior)
- npm
- Ollama instalado y ejecutándose localmente
Instalación
Instalación mediante herrería
Para instalar Ollama MCP Server para Claude Desktop automáticamente a través de Smithery :
Instalación manual
Instalar globalmente a través de npm:
Instalación en otras aplicaciones MCP
Para instalar el servidor MCP de Ollama en otras aplicaciones compatibles con MCP (como Cline o Claude Desktop), agregue la siguiente configuración al archivo de configuración MCP de su aplicación:
La ubicación del archivo de configuración varía según la aplicación:
- Claude Desktop:
claude_desktop_config.json
en el directorio de datos de la aplicación Claude - Cline:
cline_mcp_settings.json
en el almacenamiento global de VS Code
Uso
Iniciando el servidor
Simplemente ejecute:
El servidor se iniciará en el puerto 3456 de forma predeterminada. Puede especificar un puerto diferente mediante la variable de entorno PORT:
Variables de entorno
PORT
: Puerto del servidor (predeterminado: 3456). Se puede usar tanto al ejecutar directamente como durante la instalación de Smithery.CopyOLLAMA_API
: punto final de la API de Ollama (predeterminado: http://localhost:11434 )
Puntos finales de API
GET /models
- Lista de modelos disponiblesPOST /models/pull
- Extraer un nuevo modeloPOST /chat
- Chatea con una modeloGET /models/:name
- Obtener detalles del modelo
Desarrollo
- Clonar el repositorio:
- Instalar dependencias:
- Construir el proyecto:
- Iniciar el servidor:
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Relacionado
This server cannot be installed
Permite una integración perfecta entre los modelos LLM locales de Ollama y las aplicaciones compatibles con MCP, lo que admite la gestión de modelos y las interacciones de chat.