Skip to main content
Glama

MCP Ollama Server

MCP 올라마

Ollama를 Claude Desktop이나 다른 MCP 클라이언트와 통합하기 위한 MCP(Model Context Protocol) 서버입니다.

요구 사항

  • Python 3.10 이상
  • Ollama 설치 및 실행 중( https://ollama.com/download )
  • Ollama로 끌어온 모델이 최소 하나 이상 있음(예: ollama pull llama2 )

Claude Desktop 구성

Claude Desktop 구성에 다음을 추가합니다(macOS에서는 ~/Library/Application Support/Claude/claude_desktop_config.json , Windows에서는 %APPDATA%\Claude\claude_desktop_config.json ):

지엑스피1

개발

개발 모드로 설치:

git clone https://github.com/yourusername/mcp-ollama.git cd mcp-ollama uv sync

MCP Inspector로 테스트:

mcp dev src/mcp_ollama/server.py

특징

서버는 4가지 주요 도구를 제공합니다.

  • list_models - 다운로드된 모든 Ollama 모델 나열
  • show_model - 특정 모델에 대한 자세한 정보를 가져옵니다.
  • ask_model - 지정된 모델에 질문하기

특허

MIT

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

MCP Ollama 서버는 Ollama 모델을 MCP 클라이언트와 통합하여 사용자가 모델을 나열하고, 자세한 정보를 얻고, 질문을 통해 사용자와 상호 작용할 수 있도록 합니다.

  1. 요구 사항
    1. Claude Desktop 구성
    2. 개발
  2. 특징
    1. 특허

      Related MCP Servers

      • -
        security
        A
        license
        -
        quality
        A Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
        Last updated -
        1
        24
        28
        JavaScript
        MIT License
        • Apple
      • -
        security
        A
        license
        -
        quality
        A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
        Last updated -
        26
        Python
        MIT License
        • Apple
      • -
        security
        F
        license
        -
        quality
        An interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.
        Last updated -
        28
        TypeScript
      • -
        security
        A
        license
        -
        quality
        Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
        Last updated -
        165
        47
        TypeScript
        AGPL 3.0

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/emgeee/mcp-ollama'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server