Ollama MCP Server

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Provides complete integration with Ollama, allowing users to pull, push, list, create, copy, and run local LLM models. Includes model management, execution of models with customizable prompts, and an OpenAI-compatible chat completion API.

  • Offers an OpenAI-compatible chat completion API that serves as a drop-in replacement, enabling the use of local Ollama models with the familiar OpenAI chat interface and message structure.

Ollama MCP 서버

🚀 Ollama와 Model Context Protocol(MCP) 간의 강력한 브리지로, Ollama의 로컬 LLM 기능을 MCP 기반 애플리케이션에 원활하게 통합할 수 있습니다.

🌟 특징

Ollama 통합 완료

  • 전체 API 적용 범위 : 깔끔한 MCP 인터페이스를 통해 모든 필수 Ollama 기능에 액세스하세요
  • OpenAI 호환 채팅 : OpenAI 채팅 완료 API를 대체하는 드롭인 솔루션
  • 로컬 LLM Power : 완전한 제어와 개인 정보 보호를 통해 로컬에서 AI 모델을 실행합니다.

핵심 역량

  • 🔄 모델 관리
    • 레지스트리에서 모델 가져오기
    • 모델을 레지스트리로 푸시
    • 사용 가능한 모델 목록
    • Modelfiles에서 사용자 정의 모델 만들기
    • 모델 복사 및 제거
  • 🤖 모델 실행
    • 사용자 정의 가능한 프롬프트로 모델 실행
    • 시스템/사용자/보조자 역할을 갖춘 채팅 완료 API
    • 구성 가능한 매개변수(온도, 시간 초과)
    • 직접 응답을 위한 원시 모드 지원
  • 🛠 서버 제어
    • Ollama 서버 시작 및 관리
    • 자세한 모델 정보 보기
    • 오류 처리 및 시간 초과 관리

🚀 시작하기

필수 조건

  • 시스템에 Ollama가 설치되었습니다
  • Node.js와 npm/pnpm

설치

  1. 종속성 설치:

지엑스피1

  1. 서버를 빌드하세요:
pnpm run build

구성

MCP 구성에 서버를 추가합니다.

Claude Desktop의 경우:

MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "ollama": { "command": "node", "args": ["/path/to/ollama-server/build/index.js"], "env": { "OLLAMA_HOST": "http://127.0.0.1:11434" // Optional: customize Ollama API endpoint } } } }

🛠 사용 예시

모델 끌어오기 및 실행

// Pull a model await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "pull", arguments: { name: "llama2" } }); // Run the model await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "run", arguments: { name: "llama2", prompt: "Explain quantum computing in simple terms" } });

채팅 완성(OpenAI 호환)

await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "chat_completion", arguments: { model: "llama2", messages: [ { role: "system", content: "You are a helpful assistant." }, { role: "user", content: "What is the meaning of life?" } ], temperature: 0.7 } });

사용자 정의 모델 생성

await mcp.use_mcp_tool({ server_name: "ollama", tool_name: "create", arguments: { name: "custom-model", modelfile: "./path/to/Modelfile" } });

🔧 고급 구성

  • OLLAMA_HOST : 사용자 정의 Ollama API 엔드포인트 구성(기본값: http://127.0.0.1:11434 )
  • 모델 실행에 대한 시간 초과 설정(기본값: 60초)
  • 반응 무작위성을 위한 온도 제어(0-2 범위)

🤝 기여하기

여러분의 참여를 환영합니다! 자유롭게 참여해 주세요:

  • 버그 신고
  • 새로운 기능 제안
  • 풀 리퀘스트 제출

📝 라이센스

MIT 라이센스 - 여러분의 프로젝트에 자유롭게 사용하세요!


MCP 생태계를 위해 ❤️로 구축되었습니다

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Ollama의 로컬 LLM 기능을 MCP 기반 애플리케이션에 원활하게 통합할 수 있는 브리지를 통해 사용자는 전체 API 적용 범위를 통해 로컬에서 AI 모델을 관리하고 실행할 수 있습니다.

  1. 🌟 Features
    1. Complete Ollama Integration
    2. Core Capabilities
  2. 🚀 Getting Started
    1. Prerequisites
    2. Installation
    3. Configuration
  3. 🛠 Usage Examples
    1. Pull and Run a Model
    2. Chat Completion (OpenAI-compatible)
    3. Create Custom Model
  4. 🔧 Advanced Configuration
    1. 🤝 Contributing
      1. 📝 License
        ID: sxt5su901q