Skip to main content
Glama

MCP 올라마

Ollama를 Claude Desktop이나 다른 MCP 클라이언트와 통합하기 위한 MCP(Model Context Protocol) 서버입니다.

요구 사항

  • Python 3.10 이상

  • Ollama 설치 및 실행 중( https://ollama.com/download )

  • Ollama로 끌어온 모델이 최소 하나 이상 있음(예: ollama pull llama2 )

Claude Desktop 구성

Claude Desktop 구성에 다음을 추가합니다(macOS에서는 ~/Library/Application Support/Claude/claude_desktop_config.json , Windows에서는 %APPDATA%\Claude\claude_desktop_config.json ):

지엑스피1

개발

개발 모드로 설치:

git clone https://github.com/yourusername/mcp-ollama.git cd mcp-ollama uv sync

MCP Inspector로 테스트:

mcp dev src/mcp_ollama/server.py

Related MCP server: Ollama MCP Server

특징

서버는 4가지 주요 도구를 제공합니다.

  • list_models - 다운로드된 모든 Ollama 모델 나열

  • show_model - 특정 모델에 대한 자세한 정보를 가져옵니다.

  • ask_model - 지정된 모델에 질문하기

특허

MIT

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/emgeee/mcp-ollama'

If you have feedback or need assistance with the MCP directory API, please join our Discord server