Servidor MCP de Ollama
🚀 Un poderoso puente entre Ollama y el Protocolo de Contexto de Modelo (MCP), que permite una integración perfecta de las capacidades LLM locales de Ollama en sus aplicaciones impulsadas por MCP.
🌟 Características
Integración completa con Ollama
Cobertura API completa : acceda a todas las funciones esenciales de Ollama a través de una interfaz MCP limpia
Chat compatible con OpenAI : reemplazo directo de la API de finalización de chat de OpenAI
LLM Power local : ejecute modelos de IA localmente con total control y privacidad
Capacidades principales
🔄 Gestión de modelos
Extraer modelos de los registros
Empujar modelos a los registros
Lista de modelos disponibles
Crear modelos personalizados a partir de Modelfiles
Copiar y eliminar modelos
🤖 Ejecución del modelo
Ejecutar modelos con indicaciones personalizables
API de finalización de chat con roles de sistema/usuario/asistente
Parámetros configurables (temperatura, tiempo de espera)
Compatibilidad con el modo sin procesar para respuestas directas
🛠 Control del servidor
Iniciar y administrar el servidor Ollama
Ver información detallada del modelo
Manejo de errores y gestión del tiempo de espera
🚀 Primeros pasos
Prerrequisitos
Ollama instalado en su sistema
Node.js y npm/pnpm
Instalación
Instalar dependencias:
Construir el servidor:
Configuración
Agregue el servidor a su configuración de MCP:
Para Claude Desktop:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%/Claude/claude_desktop_config.json
🛠 Ejemplos de uso
Extraer y ejecutar un modelo
Finalización de chat (compatible con OpenAI)
Crear un modelo personalizado
🔧 Configuración avanzada
OLLAMA_HOST
: Configurar el punto final de la API de Ollama personalizado (predeterminado: http://127.0.0.1:11434 )Configuración de tiempo de espera para la ejecución del modelo (predeterminado: 60 segundos)
Control de temperatura para la aleatoriedad de la respuesta (rango 0-2)
🤝 Contribuyendo
¡Agradecemos sus contribuciones! Siéntase libre de:
Informar errores
Sugerir nuevas funciones
Enviar solicitudes de extracción
📝 Licencia
Licencia MIT: ¡siéntete libre de usarla en tus propios proyectos!
Creado con ❤️ para el ecosistema MCP
local-only server
The server can only run on the client's local machine because it depends on local resources.
Un puente que permite la integración perfecta de las capacidades LLM locales de Ollama en aplicaciones impulsadas por MCP, lo que permite a los usuarios administrar y ejecutar modelos de IA localmente con cobertura de API completa.
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -327MIT License
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -70103AGPL 3.0
- -securityFlicense-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -6