Skip to main content
Glama

Multi-Model Advisor

Asesor Multimodelo

(El hombre que lleva el bolso de compras)

Un servidor de Protocolo de Contexto de Modelo (MCP) que consulta múltiples modelos de Ollama y combina sus respuestas, proporcionando diversas perspectivas de IA sobre una misma pregunta. Esto crea un enfoque de "consejo de asesores" donde Claude puede sintetizar múltiples puntos de vista junto con los suyos para proporcionar respuestas más completas.

Características

  • Consultar múltiples modelos de Ollama con una sola pregunta
  • Asignar diferentes roles/personajes a cada modelo
  • Ver todos los modelos de Ollama disponibles en su sistema
  • Personalice las indicaciones del sistema para cada modelo
  • Configurar mediante variables de entorno
  • Se integra perfectamente con Claude for Desktop

Prerrequisitos

  • Node.js 16.x o superior
  • Ollama instalado y funcionando (ver Instalación de Ollama )
  • Claude para escritorio (para una experiencia de asesoramiento completa)

Instalación

Instalación mediante herrería

Para instalar multi-ai-advisor-mcp para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude

Instalación manual

  1. Clonar este repositorio:
    git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git cd multi-ai-advisor-mcp
  2. Instalar dependencias:
    npm install
  3. Construir el proyecto:
    npm run build
  4. Instalar los modelos Ollama necesarios:
    ollama pull gemma3:1b ollama pull llama3.2:1b ollama pull deepseek-r1:1.5b

Configuración

Cree un archivo .env en la raíz del proyecto con la configuración deseada:

# Server configuration SERVER_NAME=multi-model-advisor SERVER_VERSION=1.0.0 DEBUG=true # Ollama configuration OLLAMA_API_URL=http://localhost:11434 DEFAULT_MODELS=gemma3:1b,llama3.2:1b,deepseek-r1:1.5b # System prompts for each model GEMMA_SYSTEM_PROMPT=You are a creative and innovative AI assistant. Think outside the box and offer novel perspectives. LLAMA_SYSTEM_PROMPT=You are a supportive and empathetic AI assistant focused on human well-being. Provide considerate and balanced advice. DEEPSEEK_SYSTEM_PROMPT=You are a logical and analytical AI assistant. Think step-by-step and explain your reasoning clearly.

Conectarse a Claude para escritorio

  1. Localice el archivo de configuración de Claude for Desktop:
    • MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Ventanas: %APPDATA%\Claude\claude_desktop_config.json
  2. Edite el archivo para agregar el servidor MCP de Multi-Model Advisor:
{ "mcpServers": { "multi-model-advisor": { "command": "node", "args": ["/absolute/path/to/multi-ai-advisor-mcp/build/index.js"] } } }
  1. Reemplace /absolute/path/to/ con la ruta real al directorio de su proyecto
  2. Reiniciar Claude para escritorio

Uso

Una vez conectado a Claude for Desktop, puede utilizar el Asesor Multimodelo de varias maneras:

Lista de modelos disponibles

Puedes ver todos los modelos disponibles en tu sistema:

Show me which Ollama models are available on my system

Esto mostrará todos los modelos de Ollama instalados e indicará cuáles están configurados como predeterminados.

Uso básico

Simplemente pídale a Claude que utilice el asesor multimodelo:

what are the most important skills for success in today's job market, you can use gemma3:1b, llama3.2:1b, deepseek-r1:1.5b to help you

Claude cuestionará todos los modelos predeterminados y proporcionará una respuesta sintetizada basada en sus diferentes perspectivas.

ejemplo

Cómo funciona

  1. El servidor MCP expone dos herramientas:
    • list-available-models : muestra todos los modelos de Ollama en su sistema
    • query-models : Consulta múltiples modelos con una pregunta
  2. Cuando le haces una pregunta a Claude refiriéndose al asesor multimodelo:
    • Claude decide utilizar la herramienta query-models
    • El servidor envía tu pregunta a múltiples modelos de Ollama
    • Cada modelo responde con su perspectiva
    • Claude recibe todas las respuestas y sintetiza una respuesta completa.
  3. A cada modelo se le puede asignar una “persona” o rol diferente, lo que fomenta diversas perspectivas.

Solución de problemas

Problemas de conexión de Ollama

Si el servidor no puede conectarse a Ollama:

  • Asegúrese de que Ollama se esté ejecutando ( ollama serve )
  • Verifique que la OLLAMA_API_URL sea correcta en su archivo .env
  • Intente acceder a http://localhost:11434 en su navegador para verificar que Ollama esté respondiendo

Modelo no encontrado

Si un modelo se informa como no disponible:

  • Comprueba que has extraído el modelo usando ollama pull <model-name>
  • Verifique el nombre exacto del modelo usando ollama list
  • Utilice la herramienta de list-available-models para ver todos los modelos disponibles

Claude no muestra las herramientas MCP

Si las herramientas no aparecen en Claude:

  • Asegúrese de haber reiniciado Claude después de actualizar la configuración
  • Verifique que la ruta absoluta en claude_desktop_config.json sea correcta
  • Mire los registros de Claude para ver los mensajes de error

La RAM no es suficiente

Es posible que los modelos de IA de algunos administradores hayan elegido modelos más grandes, pero no hay suficiente memoria para ejecutarlos. Puede intentar especificar un modelo más pequeño (consulte Uso básico ) o aumentar la memoria.

Licencia

Licencia MIT

Para obtener más detalles, consulte el archivo LICENCIA en este repositorio del proyecto.

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un servidor MCP que consulta múltiples modelos Ollama y combina sus respuestas, proporcionando diversas perspectivas de IA sobre una sola pregunta para obtener respuestas más completas.

  1. (El hombre que lleva el bolso de compras)
    1. Características
      1. Prerrequisitos
        1. Instalación
          1. Instalación mediante herrería
          2. Instalación manual
        2. Configuración
          1. Conectarse a Claude para escritorio
            1. Uso
              1. Lista de modelos disponibles
              2. Uso básico
            2. Cómo funciona
              1. Solución de problemas
                1. Problemas de conexión de Ollama
                2. Modelo no encontrado
                3. Claude no muestra las herramientas MCP
                4. La RAM no es suficiente
              2. Licencia
                1. Contribuyendo

                  Related MCP Servers

                  • A
                    security
                    A
                    license
                    A
                    quality
                    MCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.
                    Last updated -
                    3
                    12
                    Python
                    MIT License
                    • Apple
                  • A
                    security
                    A
                    license
                    A
                    quality
                    An MCP server integrating Perplexity AI's API to offer advanced search capabilities with support for multiple models and result configuration.
                    Last updated -
                    1
                    1
                    JavaScript
                    MIT License
                  • -
                    security
                    F
                    license
                    -
                    quality
                    An MCP server that enables AI models to search the web using OpenAI's 4o-mini Search model, allowing access to up-to-date information for just a few cents per search.
                    Last updated -
                    1
                    JavaScript
                    • Apple
                    • Linux

                  View all related MCP servers

                  MCP directory API

                  We provide all the information about MCP servers via our MCP API.

                  curl -X GET 'https://glama.ai/api/mcp/v1/servers/YuChenSSR/multi-ai-advisor-mcp'

                  If you have feedback or need assistance with the MCP directory API, please join our Discord server