Servidor MCP de Ollama
🚀 Un poderoso puente entre Ollama y el Protocolo de Contexto de Modelo (MCP), que permite una integración perfecta de las capacidades LLM locales de Ollama en sus aplicaciones impulsadas por MCP.
🌟 Características
Integración completa con Ollama
Cobertura API completa : acceda a todas las funciones esenciales de Ollama a través de una interfaz MCP limpia
Chat compatible con OpenAI : reemplazo directo de la API de finalización de chat de OpenAI
LLM Power local : ejecute modelos de IA localmente con total control y privacidad
Capacidades principales
🔄 Gestión de modelos
Extraer modelos de los registros
Empujar modelos a los registros
Lista de modelos disponibles
Crear modelos personalizados a partir de Modelfiles
Copiar y eliminar modelos
🤖 Ejecución del modelo
Ejecutar modelos con indicaciones personalizables
API de finalización de chat con roles de sistema/usuario/asistente
Parámetros configurables (temperatura, tiempo de espera)
Compatibilidad con el modo sin procesar para respuestas directas
🛠 Control del servidor
Iniciar y administrar el servidor Ollama
Ver información detallada del modelo
Manejo de errores y gestión del tiempo de espera
Related MCP server: Ollama MCP Server
🚀 Primeros pasos
Prerrequisitos
Ollama instalado en su sistema
Node.js y npm/pnpm
Instalación
Instalar dependencias:
pnpm installConstruir el servidor:
pnpm run buildConfiguración
Agregue el servidor a su configuración de MCP:
Para Claude Desktop:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json
{
"mcpServers": {
"ollama": {
"command": "node",
"args": ["/path/to/ollama-server/build/index.js"],
"env": {
"OLLAMA_HOST": "http://127.0.0.1:11434" // Optional: customize Ollama API endpoint
}
}
}
}🛠 Ejemplos de uso
Extraer y ejecutar un modelo
// Pull a model
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "pull",
arguments: {
name: "llama2"
}
});
// Run the model
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "run",
arguments: {
name: "llama2",
prompt: "Explain quantum computing in simple terms"
}
});Finalización de chat (compatible con OpenAI)
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "chat_completion",
arguments: {
model: "llama2",
messages: [
{
role: "system",
content: "You are a helpful assistant."
},
{
role: "user",
content: "What is the meaning of life?"
}
],
temperature: 0.7
}
});Crear un modelo personalizado
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "create",
arguments: {
name: "custom-model",
modelfile: "./path/to/Modelfile"
}
});🔧 Configuración avanzada
OLLAMA_HOST: Configurar el punto final de la API de Ollama personalizado (predeterminado: http://127.0.0.1:11434 )Configuración de tiempo de espera para la ejecución del modelo (predeterminado: 60 segundos)
Control de temperatura para la aleatoriedad de la respuesta (rango 0-2)
🤝 Contribuyendo
¡Agradecemos sus contribuciones! Siéntase libre de:
Informar errores
Sugerir nuevas funciones
Enviar solicitudes de extracción
📝 Licencia
Licencia MIT: ¡siéntete libre de usarla en tus propios proyectos!
Creado con ❤️ para el ecosistema MCP
Resources
Looking for Admin?
Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.