Servidor MCP de Ollama
🚀 Un poderoso puente entre Ollama y el Protocolo de Contexto de Modelo (MCP), que permite una integración perfecta de las capacidades LLM locales de Ollama en sus aplicaciones impulsadas por MCP.
🌟 Características
Integración completa con Ollama
Cobertura API completa : acceda a todas las funciones esenciales de Ollama a través de una interfaz MCP limpia
Chat compatible con OpenAI : reemplazo directo de la API de finalización de chat de OpenAI
LLM Power local : ejecute modelos de IA localmente con total control y privacidad
Capacidades principales
🔄 Gestión de modelos
Extraer modelos de los registros
Empujar modelos a los registros
Lista de modelos disponibles
Crear modelos personalizados a partir de Modelfiles
Copiar y eliminar modelos
🤖 Ejecución del modelo
Ejecutar modelos con indicaciones personalizables
API de finalización de chat con roles de sistema/usuario/asistente
Parámetros configurables (temperatura, tiempo de espera)
Compatibilidad con el modo sin procesar para respuestas directas
🛠 Control del servidor
Iniciar y administrar el servidor Ollama
Ver información detallada del modelo
Manejo de errores y gestión del tiempo de espera
Related MCP server: Ollama MCP Server
🚀 Primeros pasos
Prerrequisitos
Ollama instalado en su sistema
Node.js y npm/pnpm
Instalación
Instalar dependencias:
Construir el servidor:
Configuración
Agregue el servidor a su configuración de MCP:
Para Claude Desktop:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json
🛠 Ejemplos de uso
Extraer y ejecutar un modelo
Finalización de chat (compatible con OpenAI)
Crear un modelo personalizado
🔧 Configuración avanzada
OLLAMA_HOST: Configurar el punto final de la API de Ollama personalizado (predeterminado: http://127.0.0.1:11434 )Configuración de tiempo de espera para la ejecución del modelo (predeterminado: 60 segundos)
Control de temperatura para la aleatoriedad de la respuesta (rango 0-2)
🤝 Contribuyendo
¡Agradecemos sus contribuciones! Siéntase libre de:
Informar errores
Sugerir nuevas funciones
Enviar solicitudes de extracción
📝 Licencia
Licencia MIT: ¡siéntete libre de usarla en tus propios proyectos!
Creado con ❤️ para el ecosistema MCP