Skip to main content
Glama

Servidor MCP de Ollama

🚀 Un poderoso puente entre Ollama y el Protocolo de Contexto de Modelo (MCP), que permite una integración perfecta de las capacidades LLM locales de Ollama en sus aplicaciones impulsadas por MCP.

🌟 Características

Integración completa con Ollama

  • Cobertura API completa : acceda a todas las funciones esenciales de Ollama a través de una interfaz MCP limpia

  • Chat compatible con OpenAI : reemplazo directo de la API de finalización de chat de OpenAI

  • LLM Power local : ejecute modelos de IA localmente con total control y privacidad

Capacidades principales

  • 🔄 Gestión de modelos

    • Extraer modelos de los registros

    • Empujar modelos a los registros

    • Lista de modelos disponibles

    • Crear modelos personalizados a partir de Modelfiles

    • Copiar y eliminar modelos

  • 🤖 Ejecución del modelo

    • Ejecutar modelos con indicaciones personalizables

    • API de finalización de chat con roles de sistema/usuario/asistente

    • Parámetros configurables (temperatura, tiempo de espera)

    • Compatibilidad con el modo sin procesar para respuestas directas

  • 🛠 Control del servidor

    • Iniciar y administrar el servidor Ollama

    • Ver información detallada del modelo

    • Manejo de errores y gestión del tiempo de espera

Related MCP server: Ollama MCP Server

🚀 Primeros pasos

Prerrequisitos

  • Ollama instalado en su sistema

  • Node.js y npm/pnpm

Instalación

  1. Instalar dependencias:

pnpm install
  1. Construir el servidor:

pnpm run build

Configuración

Agregue el servidor a su configuración de MCP:

Para Claude Desktop:

MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "ollama": { "command": "node", "args": ["/path/to/ollama-server/build/index.js"], "env": { "OLLAMA_HOST": "http://127.0.0.1:11434" // Optional: customize Ollama API endpoint } } } }

🛠 Ejemplos de uso

Extraer y ejecutar un modelo

// Pull a model await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "pull", arguments: { name: "llama2" } }); // Run the model await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "run", arguments: { name: "llama2", prompt: "Explain quantum computing in simple terms" } });

Finalización de chat (compatible con OpenAI)

await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "chat_completion", arguments: { model: "llama2", messages: [ { role: "system", content: "You are a helpful assistant." }, { role: "user", content: "What is the meaning of life?" } ], temperature: 0.7 } });

Crear un modelo personalizado

await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "create", arguments: { name: "custom-model", modelfile: "./path/to/Modelfile" } });

🔧 Configuración avanzada

  • OLLAMA_HOST : Configurar el punto final de la API de Ollama personalizado (predeterminado: http://127.0.0.1:11434 )

  • Configuración de tiempo de espera para la ejecución del modelo (predeterminado: 60 segundos)

  • Control de temperatura para la aleatoriedad de la respuesta (rango 0-2)

🤝 Contribuyendo

¡Agradecemos sus contribuciones! Siéntase libre de:

  • Informar errores

  • Sugerir nuevas funciones

  • Enviar solicitudes de extracción

📝 Licencia

Licencia MIT: ¡siéntete libre de usarla en tus propios proyectos!


Creado con ❤️ para el ecosistema MCP

One-click Deploy
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/NightTrek/Ollama-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server