Skip to main content
Glama
NightTrek

Ollama MCP Server

by NightTrek

Servidor MCP de Ollama

🚀 Un poderoso puente entre Ollama y el Protocolo de Contexto de Modelo (MCP), que permite una integración perfecta de las capacidades LLM locales de Ollama en sus aplicaciones impulsadas por MCP.

🌟 Características

Integración completa con Ollama

  • Cobertura API completa : acceda a todas las funciones esenciales de Ollama a través de una interfaz MCP limpia

  • Chat compatible con OpenAI : reemplazo directo de la API de finalización de chat de OpenAI

  • LLM Power local : ejecute modelos de IA localmente con total control y privacidad

Capacidades principales

  • 🔄 Gestión de modelos

    • Extraer modelos de los registros

    • Empujar modelos a los registros

    • Lista de modelos disponibles

    • Crear modelos personalizados a partir de Modelfiles

    • Copiar y eliminar modelos

  • 🤖 Ejecución del modelo

    • Ejecutar modelos con indicaciones personalizables

    • API de finalización de chat con roles de sistema/usuario/asistente

    • Parámetros configurables (temperatura, tiempo de espera)

    • Compatibilidad con el modo sin procesar para respuestas directas

  • 🛠 Control del servidor

    • Iniciar y administrar el servidor Ollama

    • Ver información detallada del modelo

    • Manejo de errores y gestión del tiempo de espera

Related MCP server: Ollama MCP Server

🚀 Primeros pasos

Prerrequisitos

  • Ollama instalado en su sistema

  • Node.js y npm/pnpm

Instalación

  1. Instalar dependencias:

pnpm install
  1. Construir el servidor:

pnpm run build

Configuración

Agregue el servidor a su configuración de MCP:

Para Claude Desktop:

MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json

{
  "mcpServers": {
    "ollama": {
      "command": "node",
      "args": ["/path/to/ollama-server/build/index.js"],
      "env": {
        "OLLAMA_HOST": "http://127.0.0.1:11434"  // Optional: customize Ollama API endpoint
      }
    }
  }
}

🛠 Ejemplos de uso

Extraer y ejecutar un modelo

// Pull a model
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "pull",
  arguments: {
    name: "llama2"
  }
});

// Run the model
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "run",
  arguments: {
    name: "llama2",
    prompt: "Explain quantum computing in simple terms"
  }
});

Finalización de chat (compatible con OpenAI)

await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "chat_completion",
  arguments: {
    model: "llama2",
    messages: [
      {
        role: "system",
        content: "You are a helpful assistant."
      },
      {
        role: "user",
        content: "What is the meaning of life?"
      }
    ],
    temperature: 0.7
  }
});

Crear un modelo personalizado

await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "create",
  arguments: {
    name: "custom-model",
    modelfile: "./path/to/Modelfile"
  }
});

🔧 Configuración avanzada

  • OLLAMA_HOST : Configurar el punto final de la API de Ollama personalizado (predeterminado: http://127.0.0.1:11434 )

  • Configuración de tiempo de espera para la ejecución del modelo (predeterminado: 60 segundos)

  • Control de temperatura para la aleatoriedad de la respuesta (rango 0-2)

🤝 Contribuyendo

¡Agradecemos sus contribuciones! Siéntase libre de:

  • Informar errores

  • Sugerir nuevas funciones

  • Enviar solicitudes de extracción

📝 Licencia

Licencia MIT: ¡siéntete libre de usarla en tus propios proyectos!


Creado con ❤️ para el ecosistema MCP

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Resources

Looking for Admin?

Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/NightTrek/Ollama-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server