Integrations
Provides complete integration with Ollama, allowing users to pull, push, list, create, copy, and run local LLM models. Includes model management, execution of models with customizable prompts, and an OpenAI-compatible chat completion API.
Offers an OpenAI-compatible chat completion API that serves as a drop-in replacement, enabling the use of local Ollama models with the familiar OpenAI chat interface and message structure.
Servidor MCP de Ollama
🚀 Un poderoso puente entre Ollama y el Protocolo de Contexto de Modelo (MCP), que permite una integración perfecta de las capacidades LLM locales de Ollama en sus aplicaciones impulsadas por MCP.
🌟 Características
Integración completa con Ollama
- Cobertura API completa : acceda a todas las funciones esenciales de Ollama a través de una interfaz MCP limpia
- Chat compatible con OpenAI : reemplazo directo de la API de finalización de chat de OpenAI
- LLM Power local : ejecute modelos de IA localmente con total control y privacidad
Capacidades principales
- 🔄 Gestión de modelos
- Extraer modelos de los registros
- Empujar modelos a los registros
- Lista de modelos disponibles
- Crear modelos personalizados a partir de Modelfiles
- Copiar y eliminar modelos
- 🤖 Ejecución del modelo
- Ejecutar modelos con indicaciones personalizables
- API de finalización de chat con roles de sistema/usuario/asistente
- Parámetros configurables (temperatura, tiempo de espera)
- Compatibilidad con el modo sin procesar para respuestas directas
- 🛠 Control del servidor
- Iniciar y administrar el servidor Ollama
- Ver información detallada del modelo
- Manejo de errores y gestión del tiempo de espera
🚀 Primeros pasos
Prerrequisitos
- Ollama instalado en su sistema
- Node.js y npm/pnpm
Instalación
- Instalar dependencias:
- Construir el servidor:
Configuración
Agregue el servidor a su configuración de MCP:
Para Claude Desktop:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%/Claude/claude_desktop_config.json
🛠 Ejemplos de uso
Extraer y ejecutar un modelo
Finalización de chat (compatible con OpenAI)
Crear un modelo personalizado
🔧 Configuración avanzada
OLLAMA_HOST
: Configurar el punto final de la API de Ollama personalizado (predeterminado: http://127.0.0.1:11434 )- Configuración de tiempo de espera para la ejecución del modelo (predeterminado: 60 segundos)
- Control de temperatura para la aleatoriedad de la respuesta (rango 0-2)
🤝 Contribuyendo
¡Agradecemos sus contribuciones! Siéntase libre de:
- Informar errores
- Sugerir nuevas funciones
- Enviar solicitudes de extracción
📝 Licencia
Licencia MIT: ¡siéntete libre de usarla en tus propios proyectos!
Creado con ❤️ para el ecosistema MCP
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
Un puente que permite la integración perfecta de las capacidades LLM locales de Ollama en aplicaciones impulsadas por MCP, lo que permite a los usuarios administrar y ejecutar modelos de IA localmente con cobertura de API completa.
Related Resources
Related MCP Servers
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -16547TypeScriptAGPL 3.0
- -securityFlicense-qualityA generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.Last updated -TypeScript
- -securityFlicense-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -1Python
- AsecurityAlicenseAqualityA Model Context Protocol server that loads multiple OpenAPI specifications and exposes them to LLM-powered IDE integrations, enabling AI to understand and work with your APIs directly in development tools like Cursor.Last updated -72927TypeScriptMIT License