Ollama MCP サーバー
🚀 Ollama とモデルコンテキストプロトコル (MCP) 間の強力なブリッジであり、Ollama のローカル LLM 機能を MCP 対応アプリケーションにシームレスに統合できます。
🌟 特徴
Ollamaとの完全な統合
完全なAPIカバレッジ:クリーンなMCPインターフェースを通じてOllamaのすべての重要な機能にアクセスできます
OpenAI 互換チャット: OpenAI のチャット補完 API の代替
ローカルLLMパワー:完全な制御とプライバシーを確保しながらAIモデルをローカルで実行
コア機能
🔄モデル管理
レジストリからモデルを取得する
モデルをレジストリにプッシュする
利用可能なモデルの一覧
モデルファイルからカスタムモデルを作成する
モデルのコピーと削除
🤖モデルの実行
カスタマイズ可能なプロンプトでモデルを実行する
システム/ユーザー/アシスタントの役割を持つチャット完了 API
設定可能なパラメータ(温度、タイムアウト)
直接応答のためのRawモードのサポート
🛠サーバーコントロール
Ollama サーバーの起動と管理
詳細なモデル情報を見る
エラー処理とタイムアウト管理
🚀 はじめに
前提条件
システムにOllamaがインストールされている
Node.js と npm/pnpm
インストール
依存関係をインストールします:
サーバーを構築します。
構成
サーバーを MCP 構成に追加します。
Claude Desktopの場合:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json
🛠 使用例
モデルをプルして実行する
チャット補完(OpenAI対応)
カスタムモデルを作成する
🔧 詳細設定
OLLAMA_HOST: カスタム Ollama API エンドポイントを設定します (デフォルト: http://127.0.0.1:11434 )モデル実行のタイムアウト設定(デフォルト: 60秒)
応答ランダム性の温度制御(0~2の範囲)
🤝 貢献する
貢献を歓迎します!お気軽にどうぞ:
バグを報告する
新機能を提案する
プルリクエストを送信する
📝 ライセンス
MIT ライセンス - ご自身のプロジェクトで自由にご利用ください。
MCP エコシステムのために ❤️ を込めて構築
Related MCP Servers
- Asecurity-licenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -327MIT License
- -security-license-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -70110AGPL 3.0
- -security-license-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -6