Multi-Model Advisor

by YuChenSSR
Verified

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Uses .ENV files for configuration, allowing customization of server settings, Ollama configuration, and system prompts for each model.

  • Includes support for Mermaid diagrams to visualize the workflow of how multiple AI models contribute to the advisory system.

  • Runs as a Node.js application with the server exposing tools for listing available models and querying multiple models simultaneously.

マルチモデルアドバイザー

(锵锵四人行)

モデルコンテキストプロトコル(MCP)サーバーは、複数のOllamaモデルにクエリを実行し、それらの応答を統合することで、単一の質問に対して多様なAIの視点を提供します。これにより、「アドバイザー評議会」のようなアプローチが実現し、Claudeは自身の視点に加えて複数の視点を統合することで、より包括的な回答を提供できます。

特徴

  • 1つの質問で複数のOllamaモデルをクエリする
  • 各モデルに異なる役割/ペルソナを割り当てる
  • システムで利用可能なすべてのOllamaモデルを表示します
  • 各モデルのシステムプロンプトをカスタマイズする
  • 環境変数で設定する
  • Claude for Desktopとシームレスに統合

前提条件

  • Node.js 16.x 以上
  • Ollama がインストールされ、実行中である ( Ollama のインストールを参照)
  • Claude for Desktop(完全なアドバイザリエクスペリエンスを実現)

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の multi-ai-advisor-mcp を自動的にインストールするには:

npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude

手動インストール

  1. このリポジトリをクローンします:
    git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git cd multi-ai-advisor-mcp
  2. 依存関係をインストールします:
    npm install
  3. プロジェクトをビルドします。
    npm run build
  4. 必要な Ollama モデルをインストールします。
    ollama pull gemma3:1b ollama pull llama3.2:1b ollama pull deepseek-r1:1.5b

構成

希望する構成でプロジェクト ルートに.envファイルを作成します。

# Server configuration SERVER_NAME=multi-model-advisor SERVER_VERSION=1.0.0 DEBUG=true # Ollama configuration OLLAMA_API_URL=http://localhost:11434 DEFAULT_MODELS=gemma3:1b,llama3.2:1b,deepseek-r1:1.5b # System prompts for each model GEMMA_SYSTEM_PROMPT=You are a creative and innovative AI assistant. Think outside the box and offer novel perspectives. LLAMA_SYSTEM_PROMPT=You are a supportive and empathetic AI assistant focused on human well-being. Provide considerate and balanced advice. DEEPSEEK_SYSTEM_PROMPT=You are a logical and analytical AI assistant. Think step-by-step and explain your reasoning clearly.

デスクトップ版Claudeに接続

  1. Claude for Desktop の構成ファイルを見つけます。
    • MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Windows: %APPDATA%\Claude\claude_desktop_config.json
  2. ファイルを編集して、Multi-Model Advisor MCP サーバーを追加します。
{ "mcpServers": { "multi-model-advisor": { "command": "node", "args": ["/absolute/path/to/multi-ai-advisor-mcp/build/index.js"] } } }
  1. /absolute/path/to/プロジェクトディレクトリへの実際のパスに置き換えます。
  2. デスクトップ版のClaudeを再起動

使用法

Claude for Desktop に接続すると、Multi-Model Advisor をいくつかの方法で使用できるようになります。

利用可能なモデルの一覧

システムで利用可能なすべてのモデルを確認できます。

Show me which Ollama models are available on my system

これにより、インストールされているすべての Ollama モデルが表示され、どれがデフォルトとして設定されているかが示されます。

基本的な使い方

Claude にマルチモデル アドバイザーを使用するように依頼するだけです。

what are the most important skills for success in today's job market, you can use gemma3:1b, llama3.2:1b, deepseek-r1:1.5b to help you

Claude はすべてのデフォルト モデルを照会し、さまざまな観点に基づいて統合された応答を提供します。

仕組み

  1. MCP サーバーは次の 2 つのツールを公開します。
    • list-available-models : システム上のすべてのOllamaモデルを表示します
    • query-models : 質問で複数のモデルを照会する
  2. マルチモデルアドバイザーに関してクロードに質問すると、次のようになります。
    • クロードはquery-modelsツールを使うことにした
    • サーバーはあなたの質問を複数のOllamaモデルに送信します
    • 各モデルはそれぞれの視点で反応する
    • クロードはすべての回答を受け取り、包括的な回答をまとめる
  3. 各モデルには異なる「ペルソナ」または役割を割り当てることができるため、多様な視点が促進されます。

トラブルシューティング

Ollama 接続の問題

サーバーがOllamaに接続できない場合:

  • Ollama が実行中であることを確認する ( ollama serve )
  • .env ファイル内の OLLAMA_API_URL が正しいことを確認してください
  • ブラウザでhttp://localhost:11434にアクセスして、Ollama が応答していることを確認してください。

モデルが見つかりません

モデルが利用できないと報告された場合:

  • ollama pull <model-name>を使用してモデルをプルしたことを確認します。
  • ollama listを使用して正確なモデル名を確認する
  • 利用可能なすべてのモデルを表示するには、 list-available-modelsツールを使用してください。

クロードがMCPツールを表示しない

Claude にツールが表示されない場合:

  • 設定を更新した後、Claudeを再起動してください。
  • claude_desktop_config.json の絶対パスが正しいことを確認してください
  • クロードのログでエラーメッセージを確認する

RAMが足りない

一部のマネージャーのAIモデルでは、より大きなモデルが選択されている可能性がありますが、実行に必要なメモリが不足しています。より小さなモデルを指定するか(基本的な使用方法を参照)、メモリをアップグレードしてみてください。

ライセンス

MITライセンス

詳細については、このプロジェクトリポジトリのLICENSEファイルを参照してください。

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

複数の Ollama モデルにクエリを実行し、その応答を組み合わせて、単一の質問に対する多様な AI の視点を提供し、より包括的な回答を提供する MCP サーバー。

  1. (锵锵四人行)
    1. Features
      1. Prerequisites
        1. Installation
          1. Installing via Smithery
          2. Manual Installation
        2. Configuration
          1. Connect to Claude for Desktop
            1. Usage
              1. List Available Models
              2. Basic Usage
            2. How It Works
              1. Troubleshooting
                1. Ollama Connection Issues
                2. Model Not Found
                3. Claude Not Showing MCP Tools
                4. RAM is not enough
              2. License
                1. Contributing
                  ID: cb1a1fcmqf