Ollama MCP Server

by NightTrek

Integrations

  • Provides complete integration with Ollama, allowing users to pull, push, list, create, copy, and run local LLM models. Includes model management, execution of models with customizable prompts, and an OpenAI-compatible chat completion API.

  • Offers an OpenAI-compatible chat completion API that serves as a drop-in replacement, enabling the use of local Ollama models with the familiar OpenAI chat interface and message structure.

Servidor MCP de Ollama

🚀 Un poderoso puente entre Ollama y el Protocolo de Contexto de Modelo (MCP), que permite una integración perfecta de las capacidades LLM locales de Ollama en sus aplicaciones impulsadas por MCP.

🌟 Características

Integración completa con Ollama

  • Cobertura API completa : acceda a todas las funciones esenciales de Ollama a través de una interfaz MCP limpia
  • Chat compatible con OpenAI : reemplazo directo de la API de finalización de chat de OpenAI
  • LLM Power local : ejecute modelos de IA localmente con total control y privacidad

Capacidades principales

  • 🔄 Gestión de modelos
    • Extraer modelos de los registros
    • Empujar modelos a los registros
    • Lista de modelos disponibles
    • Crear modelos personalizados a partir de Modelfiles
    • Copiar y eliminar modelos
  • 🤖 Ejecución del modelo
    • Ejecutar modelos con indicaciones personalizables
    • API de finalización de chat con roles de sistema/usuario/asistente
    • Parámetros configurables (temperatura, tiempo de espera)
    • Compatibilidad con el modo sin procesar para respuestas directas
  • 🛠 Control del servidor
    • Iniciar y administrar el servidor Ollama
    • Ver información detallada del modelo
    • Manejo de errores y gestión del tiempo de espera

🚀 Primeros pasos

Prerrequisitos

  • Ollama instalado en su sistema
  • Node.js y npm/pnpm

Instalación

  1. Instalar dependencias:
pnpm install
  1. Construir el servidor:
pnpm run build

Configuración

Agregue el servidor a su configuración de MCP:

Para Claude Desktop:

MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "ollama": { "command": "node", "args": ["/path/to/ollama-server/build/index.js"], "env": { "OLLAMA_HOST": "http://127.0.0.1:11434" // Optional: customize Ollama API endpoint } } } }

🛠 Ejemplos de uso

Extraer y ejecutar un modelo

// Pull a model await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "pull", arguments: { name: "llama2" } }); // Run the model await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "run", arguments: { name: "llama2", prompt: "Explain quantum computing in simple terms" } });

Finalización de chat (compatible con OpenAI)

await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "chat_completion", arguments: { model: "llama2", messages: [ { role: "system", content: "You are a helpful assistant." }, { role: "user", content: "What is the meaning of life?" } ], temperature: 0.7 } });

Crear un modelo personalizado

await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "create", arguments: { name: "custom-model", modelfile: "./path/to/Modelfile" } });

🔧 Configuración avanzada

  • OLLAMA_HOST : Configurar el punto final de la API de Ollama personalizado (predeterminado: http://127.0.0.1:11434 )
  • Configuración de tiempo de espera para la ejecución del modelo (predeterminado: 60 segundos)
  • Control de temperatura para la aleatoriedad de la respuesta (rango 0-2)

🤝 Contribuyendo

¡Agradecemos sus contribuciones! Siéntase libre de:

  • Informar errores
  • Sugerir nuevas funciones
  • Enviar solicitudes de extracción

📝 Licencia

Licencia MIT: ¡siéntete libre de usarla en tus propios proyectos!


Creado con ❤️ para el ecosistema MCP

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un puente que permite la integración perfecta de las capacidades LLM locales de Ollama en aplicaciones impulsadas por MCP, lo que permite a los usuarios administrar y ejecutar modelos de IA localmente con cobertura de API completa.

  1. 🌟 Características
    1. Integración completa con Ollama
    2. Capacidades principales
  2. 🚀 Primeros pasos
    1. Prerrequisitos
    2. Instalación
    3. Configuración
  3. 🛠 Ejemplos de uso
    1. Extraer y ejecutar un modelo
    2. Finalización de chat (compatible con OpenAI)
    3. Crear un modelo personalizado
  4. 🔧 Configuración avanzada
    1. 🤝 Contribuyendo
      1. 📝 Licencia

        Related MCP Servers

        • -
          security
          A
          license
          -
          quality
          Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
          Last updated -
          165
          47
          TypeScript
          AGPL 3.0
        • -
          security
          F
          license
          -
          quality
          A generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.
          Last updated -
          TypeScript
        • -
          security
          F
          license
          -
          quality
          A server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.
          Last updated -
          1
          Python
          • Apple
        • A
          security
          A
          license
          A
          quality
          A Model Context Protocol server that loads multiple OpenAPI specifications and exposes them to LLM-powered IDE integrations, enabling AI to understand and work with your APIs directly in development tools like Cursor.
          Last updated -
          7
          292
          7
          TypeScript
          MIT License

        View all related MCP servers

        ID: sxt5su901q