Skip to main content
Glama

Ollama MCP Server

Servidor MCP de Ollama

Un servidor MCP (Protocolo de contexto de modelo) para Ollama que permite una integración perfecta entre los modelos LLM locales de Ollama y aplicaciones compatibles con MCP como Claude Desktop.

Características

  • Lista de modelos Ollama disponibles
  • Saca nuevos modelos de Ollama
  • Chatea con modelos usando la API de chat de Ollama
  • Obtenga información detallada del modelo
  • Gestión automática de puertos
  • Configuración de variables de entorno

Prerrequisitos

  • Node.js (v16 o superior)
  • npm
  • Ollama instalado y ejecutándose localmente

Instalación

Instalación manual

Instalar globalmente a través de npm:

npm install -g @rawveg/ollama-mcp

Instalación en otras aplicaciones MCP

Para instalar el servidor MCP de Ollama en otras aplicaciones compatibles con MCP (como Cline o Claude Desktop), agregue la siguiente configuración al archivo de configuración MCP de su aplicación:

{ "mcpServers": { "@rawveg/ollama-mcp": { "command": "npx", "args": [ "-y", "@rawveg/ollama-mcp" ] } } }

La ubicación del archivo de configuración varía según la aplicación:

  • Claude Desktop: claude_desktop_config.json en el directorio de datos de la aplicación Claude
  • Cline: cline_mcp_settings.json en el almacenamiento global de VS Code

Uso

Iniciando el servidor

Simplemente ejecute:

ollama-mcp

El servidor se iniciará en el puerto 3456 de forma predeterminada. Puede especificar un puerto diferente mediante la variable de entorno PORT:

PORT=3457 ollama-mcp

Variables de entorno

  • PORT : Puerto del servidor (predeterminado: 3456). Se puede usar al ejecutar directamente:
    # When running directly PORT=3457 ollama-mcp
  • OLLAMA_API : punto final de la API de Ollama (predeterminado: http://localhost:11434 )

Puntos finales de API

  • GET /models - Lista de modelos disponibles
  • POST /models/pull - Extraer un nuevo modelo
  • POST /chat - Chatea con una modelo
  • GET /models/:name - Obtener detalles del modelo

Desarrollo

  1. Clonar el repositorio:
git clone https://github.com/rawveg/ollama-mcp.git cd ollama-mcp
  1. Instalar dependencias:
npm install
  1. Construir el proyecto:
npm run build
  1. Iniciar el servidor:
npm start

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

Sin embargo, esto no autoriza la incorporación de este proyecto a servicios de terceros ni a plataformas comerciales sin previa consulta y acuerdo. Si bien anteriormente acepté contribuciones (como un Dockerfile y actualizaciones del README relacionado) para facilitar la integración con servicios como Smithery , las acciones recientes de un servicio similar, Glama , han obligado a reevaluar esta política.

Glama ha optado por incluir proyectos MCP de código abierto en su oferta comercial sin previo aviso ni consentimiento, y posteriormente ha creado solicitudes de incidencias que exigen a los mantenedores realizar trabajo no remunerado para garantizar la compatibilidad con su plataforma. Este comportamiento —aprovechar el trabajo de la comunidad para obtener beneficios sin diálogo ni compensación— no solo es desconsiderado, sino también éticamente problemático .

Como resultado, y para proteger la integridad de este proyecto y sus colaboradores, la licencia se ha actualizado a la Licencia Pública General Affero GNU v3.0 (AGPL-3.0) . Este cambio garantiza que cualquier uso del software, especialmente en plataformas comerciales o de servicios , cumpla plenamente con los términos de la AGPL y obtenga una licencia comercial independiente. El simple enlace a la fuente original no es suficiente cuando el proyecto se monetiza activamente . Si desea incluir este proyecto en una oferta comercial, póngase en contacto primero con nosotros para consultar los términos de la licencia.

Licencia

AGPL versión 3.0

Relacionado

Este proyecto contaba anteriormente con licencia MIT. A partir del 20 de abril de 2025, cuenta con la licencia AGPL-3.0 para evitar la explotación comercial no autorizada. Si utiliza este proyecto antes de este cambio, consulte la etiqueta de Git o la confirmación correspondiente para conocer la licencia aplicable.

-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Permite una integración perfecta entre los modelos LLM locales de Ollama y las aplicaciones compatibles con MCP, lo que admite la gestión de modelos y las interacciones de chat.

  1. Características
    1. Prerrequisitos
      1. Instalación
        1. Instalación manual
        2. Instalación en otras aplicaciones MCP
      2. Uso
        1. Iniciando el servidor
        2. Variables de entorno
        3. Puntos finales de API
      3. Desarrollo
        1. Contribuyendo
          1. Licencia
            1. Relacionado

              Related MCP Servers

              • -
                security
                F
                license
                -
                quality
                An interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.
                Last updated -
                28
                TypeScript
              • A
                security
                A
                license
                A
                quality
                MCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.
                Last updated -
                3
                12
                Python
                MIT License
                • Apple
              • A
                security
                F
                license
                A
                quality
                A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
                Last updated -
                10
                33
                JavaScript
                • Apple
              • -
                security
                F
                license
                -
                quality
                A generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.
                Last updated -
                TypeScript

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/rawveg/ollama-mcp'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server