MCP Ollama Server

by emgeee
Verified

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Allows integration with Ollama, enabling use of Ollama models through the MCP interface. Provides capabilities to list models, get model details, and ask questions to Ollama models.

MCP 올라마

Ollama를 Claude Desktop이나 다른 MCP 클라이언트와 통합하기 위한 MCP(Model Context Protocol) 서버입니다.

요구 사항

  • Python 3.10 이상
  • Ollama 설치 및 실행 중( https://ollama.com/download )
  • Ollama로 끌어온 모델이 최소 하나 이상 있음(예: ollama pull llama2 )

Claude Desktop 구성

Claude Desktop 구성에 다음을 추가합니다(macOS에서는 ~/Library/Application Support/Claude/claude_desktop_config.json , Windows에서는 %APPDATA%\Claude\claude_desktop_config.json ):

지엑스피1

개발

개발 모드로 설치:

git clone https://github.com/yourusername/mcp-ollama.git cd mcp-ollama uv sync

MCP Inspector로 테스트:

mcp dev src/mcp_ollama/server.py

특징

서버는 4가지 주요 도구를 제공합니다.

  • list_models - 다운로드된 모든 Ollama 모델 나열
  • show_model - 특정 모델에 대한 자세한 정보를 가져옵니다.
  • ask_model - 지정된 모델에 질문하기

특허

MIT

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

MCP Ollama 서버는 Ollama 모델을 MCP 클라이언트와 통합하여 사용자가 모델을 나열하고, 자세한 정보를 얻고, 질문을 통해 사용자와 상호 작용할 수 있도록 합니다.

  1. Requirements
    1. Configure Claude Desktop
    2. Development
  2. Features
    1. License
      ID: h0t3210s62