Skip to main content
Glama
NightTrek

Ollama MCP Server

by NightTrek

Ollama MCP サーバー

🚀 Ollama とモデルコンテキストプロトコル (MCP) 間の強力なブリッジであり、Ollama のローカル LLM 機能を MCP 対応アプリケーションにシームレスに統合できます。

🌟 特徴

Ollamaとの完全な統合

  • 完全なAPIカバレッジ:クリーンなMCPインターフェースを通じてOllamaのすべての重要な機能にアクセスできます

  • OpenAI 互換チャット: OpenAI のチャット補完 API の代替

  • ローカルLLMパワー:完全な制御とプライバシーを確保しながらAIモデルをローカルで実行

コア機能

  • 🔄モデル管理

    • レジストリからモデルを取得する

    • モデルをレジストリにプッシュする

    • 利用可能なモデルの一覧

    • モデルファイルからカスタムモデルを作成する

    • モデルのコピーと削除

  • 🤖モデルの実行

    • カスタマイズ可能なプロンプトでモデルを実行する

    • システム/ユーザー/アシスタントの役割を持つチャット完了 API

    • 設定可能なパラメータ(温度、タイムアウト)

    • 直接応答のためのRawモードのサポート

  • 🛠サーバーコントロール

    • Ollama サーバーの起動と管理

    • 詳細なモデル情報を見る

    • エラー処理とタイムアウト管理

Related MCP server: Ollama MCP Server

🚀 はじめに

前提条件

  • システムにOllamaがインストールされている

  • Node.js と npm/pnpm

インストール

  1. 依存関係をインストールします:

pnpm install
  1. サーバーを構築します。

pnpm run build

構成

サーバーを MCP 構成に追加します。

Claude Desktopの場合:

MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json

{
  "mcpServers": {
    "ollama": {
      "command": "node",
      "args": ["/path/to/ollama-server/build/index.js"],
      "env": {
        "OLLAMA_HOST": "http://127.0.0.1:11434"  // Optional: customize Ollama API endpoint
      }
    }
  }
}

🛠 使用例

モデルをプルして実行する

// Pull a model
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "pull",
  arguments: {
    name: "llama2"
  }
});

// Run the model
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "run",
  arguments: {
    name: "llama2",
    prompt: "Explain quantum computing in simple terms"
  }
});

チャット補完(OpenAI対応)

await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "chat_completion",
  arguments: {
    model: "llama2",
    messages: [
      {
        role: "system",
        content: "You are a helpful assistant."
      },
      {
        role: "user",
        content: "What is the meaning of life?"
      }
    ],
    temperature: 0.7
  }
});

カスタムモデルを作成する

await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "create",
  arguments: {
    name: "custom-model",
    modelfile: "./path/to/Modelfile"
  }
});

🔧 詳細設定

  • OLLAMA_HOST : カスタム Ollama API エンドポイントを設定します (デフォルト: http://127.0.0.1:11434 )

  • モデル実行のタイムアウト設定(デフォルト: 60秒)

  • 応答ランダム性の温度制御(0~2の範囲)

🤝 貢献する

貢献を歓迎します!お気軽にどうぞ:

  • バグを報告する

  • 新機能を提案する

  • プルリクエストを送信する

📝 ライセンス

MIT ライセンス - ご自身のプロジェクトで自由にご利用ください。


MCP エコシステムのために ❤️ を込めて構築

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Resources

Looking for Admin?

Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/NightTrek/Ollama-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server