Servidor MCP de Ollama
Un servidor MCP (Protocolo de contexto de modelo) para Ollama que permite una integración perfecta entre los modelos LLM locales de Ollama y aplicaciones compatibles con MCP como Claude Desktop.
Características
- Lista de modelos Ollama disponibles
- Saca nuevos modelos de Ollama
- Chatea con modelos usando la API de chat de Ollama
- Obtenga información detallada del modelo
- Gestión automática de puertos
- Configuración de variables de entorno
Prerrequisitos
- Node.js (v16 o superior)
- npm
- Ollama instalado y ejecutándose localmente
Instalación
Instalación manual
Instalar globalmente a través de npm:
Instalación en otras aplicaciones MCP
Para instalar el servidor MCP de Ollama en otras aplicaciones compatibles con MCP (como Cline o Claude Desktop), agregue la siguiente configuración al archivo de configuración MCP de su aplicación:
La ubicación del archivo de configuración varía según la aplicación:
- Claude Desktop:
claude_desktop_config.json
en el directorio de datos de la aplicación Claude - Cline:
cline_mcp_settings.json
en el almacenamiento global de VS Code
Uso
Iniciando el servidor
Simplemente ejecute:
El servidor se iniciará en el puerto 3456 de forma predeterminada. Puede especificar un puerto diferente mediante la variable de entorno PORT:
Variables de entorno
PORT
: Puerto del servidor (predeterminado: 3456). Se puede usar al ejecutar directamente:OLLAMA_API
: punto final de la API de Ollama (predeterminado: http://localhost:11434 )
Puntos finales de API
GET /models
- Lista de modelos disponiblesPOST /models/pull
- Extraer un nuevo modeloPOST /chat
- Chatea con una modeloGET /models/:name
- Obtener detalles del modelo
Desarrollo
- Clonar el repositorio:
- Instalar dependencias:
- Construir el proyecto:
- Iniciar el servidor:
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
Sin embargo, esto no autoriza la incorporación de este proyecto a servicios de terceros ni a plataformas comerciales sin previa consulta y acuerdo. Si bien anteriormente acepté contribuciones (como un Dockerfile y actualizaciones del README relacionado) para facilitar la integración con servicios como Smithery , las acciones recientes de un servicio similar, Glama , han obligado a reevaluar esta política.
Glama ha optado por incluir proyectos MCP de código abierto en su oferta comercial sin previo aviso ni consentimiento, y posteriormente ha creado solicitudes de incidencias que exigen a los mantenedores realizar trabajo no remunerado para garantizar la compatibilidad con su plataforma. Este comportamiento —aprovechar el trabajo de la comunidad para obtener beneficios sin diálogo ni compensación— no solo es desconsiderado, sino también éticamente problemático .
Como resultado, y para proteger la integridad de este proyecto y sus colaboradores, la licencia se ha actualizado a la Licencia Pública General Affero GNU v3.0 (AGPL-3.0) . Este cambio garantiza que cualquier uso del software, especialmente en plataformas comerciales o de servicios , cumpla plenamente con los términos de la AGPL y obtenga una licencia comercial independiente. El simple enlace a la fuente original no es suficiente cuando el proyecto se monetiza activamente . Si desea incluir este proyecto en una oferta comercial, póngase en contacto primero con nosotros para consultar los términos de la licencia.
Licencia
AGPL versión 3.0
Relacionado
Este proyecto contaba anteriormente con licencia MIT. A partir del 20 de abril de 2025, cuenta con la licencia AGPL-3.0 para evitar la explotación comercial no autorizada. Si utiliza este proyecto antes de este cambio, consulte la etiqueta de Git o la confirmación correspondiente para conocer la licencia aplicable.
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Permite una integración perfecta entre los modelos LLM locales de Ollama y las aplicaciones compatibles con MCP, lo que admite la gestión de modelos y las interacciones de chat.
Related Resources
Related MCP Servers
- -securityFlicense-qualityAn interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.Last updated -28TypeScript
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -312PythonMIT License
- AsecurityFlicenseAqualityA bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.Last updated -1033JavaScript
- -securityFlicense-qualityA generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.Last updated -TypeScript