Ollama MCP Server

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Provides access to Ollama's local LLM models through a Model Context Protocol server, allowing listing, pulling, and chatting with Ollama models

Servidor MCP de Ollama

Un servidor MCP (Protocolo de contexto de modelo) para Ollama que permite una integración perfecta entre los modelos LLM locales de Ollama y aplicaciones compatibles con MCP como Claude Desktop.

Características

  • Lista de modelos Ollama disponibles
  • Saca nuevos modelos de Ollama
  • Chatea con modelos usando la API de chat de Ollama
  • Obtenga información detallada del modelo
  • Gestión automática de puertos
  • Configuración de variables de entorno

Prerrequisitos

  • Node.js (v16 o superior)
  • npm
  • Ollama instalado y ejecutándose localmente

Instalación

Instalación mediante herrería

Para instalar Ollama MCP Server para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @rawveg/ollama-mcp --client claude

Instalación manual

Instalar globalmente a través de npm:

npm install -g @rawveg/ollama-mcp

Instalación en otras aplicaciones MCP

Para instalar el servidor MCP de Ollama en otras aplicaciones compatibles con MCP (como Cline o Claude Desktop), agregue la siguiente configuración al archivo de configuración MCP de su aplicación:

{ "mcpServers": { "@rawveg/ollama-mcp": { "command": "npx", "args": [ "-y", "@rawveg/ollama-mcp" ] } } }

La ubicación del archivo de configuración varía según la aplicación:

  • Claude Desktop: claude_desktop_config.json en el directorio de datos de la aplicación Claude
  • Cline: cline_mcp_settings.json en el almacenamiento global de VS Code

Uso

Iniciando el servidor

Simplemente ejecute:

ollama-mcp

El servidor se iniciará en el puerto 3456 de forma predeterminada. Puede especificar un puerto diferente mediante la variable de entorno PORT:

PORT=3457 ollama-mcp

Variables de entorno

  • PORT : Puerto del servidor (predeterminado: 3456). Se puede usar tanto al ejecutar directamente como durante la instalación de Smithery.
    # When running directly PORT=3457 ollama-mcp # When installing via Smithery PORT=3457 npx -y @smithery/cli install @rawveg/ollama-mcp --client claude
  • OLLAMA_API : punto final de la API de Ollama (predeterminado: http://localhost:11434 )

Puntos finales de API

  • GET /models - Lista de modelos disponibles
  • POST /models/pull - Extraer un nuevo modelo
  • POST /chat - Chatea con una modelo
  • GET /models/:name - Obtener detalles del modelo

Desarrollo

  1. Clonar el repositorio:
git clone https://github.com/rawveg/ollama-mcp.git cd ollama-mcp
  1. Instalar dependencias:
npm install
  1. Construir el proyecto:
npm run build
  1. Iniciar el servidor:
npm start

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Relacionado

-
security - not tested
A
license - permissive license
-
quality - not tested

Permite una integración perfecta entre los modelos LLM locales de Ollama y las aplicaciones compatibles con MCP, lo que admite la gestión de modelos y las interacciones de chat.

  1. Features
    1. Prerequisites
      1. Installation
        1. Installing via Smithery
        2. Manual Installation
        3. Installing in Other MCP Applications
      2. Usage
        1. Starting the Server
        2. Environment Variables
        3. API Endpoints
      3. Development
        1. Contributing
          1. License
            1. Related
              ID: n798ehuw4c