Ollama MCP Server

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Provides access to Ollama's local LLM models through a Model Context Protocol server, allowing listing, pulling, and chatting with Ollama models

Ollama MCP サーバー

Ollama のローカル LLM モデルと Claude Desktop などの MCP 互換アプリケーションとのシームレスな統合を可能にする、Ollama 用の MCP (モデル コンテキスト プロトコル) サーバー。

特徴

  • 利用可能なOllamaモデルの一覧
  • Ollamaから新しいモデルを取得する
  • Ollama のチャット API を使用してモデルとチャットする
  • 詳細なモデル情報を取得する
  • 自動ポート管理
  • 環境変数の設定

前提条件

  • Node.js (v16 以上)
  • npm
  • Ollama をローカルにインストールして実行

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Ollama MCP Server を自動的にインストールするには:

npx -y @smithery/cli install @rawveg/ollama-mcp --client claude

手動インストール

npm 経由でグローバルにインストールします。

npm install -g @rawveg/ollama-mcp

他のMCPアプリケーションへのインストール

Ollama MCP サーバーを他の MCP 互換アプリケーション (Cline や Claude Desktop など) にインストールするには、アプリケーションの MCP 設定ファイルに次の構成を追加します。

{ "mcpServers": { "@rawveg/ollama-mcp": { "command": "npx", "args": [ "-y", "@rawveg/ollama-mcp" ] } } }

設定ファイルの場所はアプリケーションによって異なります。

  • Claude デスクトップ: Claude アプリ データ ディレクトリ内のclaude_desktop_config.json
  • Cline: VS Code グローバル ストレージ内のcline_mcp_settings.json

使用法

サーバーの起動

単に実行します:

ollama-mcp

サーバーはデフォルトでポート3456で起動します。PORT環境変数を使用して別のポートを指定することもできます。

PORT=3457 ollama-mcp

環境変数

  • PORT : サーバーポート(デフォルト: 3456)。直接実行時とSmitheryインストール時の両方で使用できます。
    # When running directly PORT=3457 ollama-mcp # When installing via Smithery PORT=3457 npx -y @smithery/cli install @rawveg/ollama-mcp --client claude
  • OLLAMA_API : Ollama APIエンドポイント(デフォルト: http://localhost:11434

APIエンドポイント

  • GET /models - 利用可能なモデルを一覧表示する
  • POST /models/pull - 新しいモデルをプルする
  • POST /chat - モデルとチャットする
  • GET /models/:name - モデルの詳細を取得する

発達

  1. リポジトリをクローンします。
git clone https://github.com/rawveg/ollama-mcp.git cd ollama-mcp
  1. 依存関係をインストールします:
npm install
  1. プロジェクトをビルドします。
npm run build
  1. サーバーを起動します。
npm start

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

ライセンス

マサチューセッツ工科大学

関連している

-
security - not tested
A
license - permissive license
-
quality - not tested

Ollama のローカル LLM モデルと MCP 互換アプリケーション間のシームレスな統合を可能にし、モデル管理とチャット インタラクションをサポートします。

  1. Features
    1. Prerequisites
      1. Installation
        1. Installing via Smithery
        2. Manual Installation
        3. Installing in Other MCP Applications
      2. Usage
        1. Starting the Server
        2. Environment Variables
        3. API Endpoints
      3. Development
        1. Contributing
          1. License
            1. Related
              ID: n798ehuw4c