Skip to main content
Glama

Asesor Multimodelo

(El hombre que lleva el bolso de compras)

insignia de herrería

Un servidor de Protocolo de Contexto de Modelo (MCP) que consulta múltiples modelos de Ollama y combina sus respuestas, proporcionando diversas perspectivas de IA sobre una misma pregunta. Esto crea un enfoque de "consejo de asesores" donde Claude puede sintetizar múltiples puntos de vista junto con los suyos para proporcionar respuestas más completas.

graph TD A[Start] --> B[Worker Local AI 1 Opinion] A --> C[Worker Local AI 2 Opinion] A --> D[Worker Local AI 3 Opinion] B --> E[Manager AI] C --> E D --> E E --> F[Decision Made]

Related MCP server: MCP Ollama Server

Características

  • Consultar múltiples modelos de Ollama con una sola pregunta

  • Asignar diferentes roles/personajes a cada modelo

  • Ver todos los modelos de Ollama disponibles en su sistema

  • Personalice las indicaciones del sistema para cada modelo

  • Configurar mediante variables de entorno

  • Se integra perfectamente con Claude for Desktop

Prerrequisitos

  • Node.js 16.x o superior

  • Ollama instalado y funcionando (ver Instalación de Ollama )

  • Claude para escritorio (para una experiencia de asesoramiento completa)

Instalación

Instalación mediante herrería

Para instalar multi-ai-advisor-mcp para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude

Instalación manual

  1. Clonar este repositorio:

    git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git cd multi-ai-advisor-mcp
  2. Instalar dependencias:

    npm install
  3. Construir el proyecto:

    npm run build
  4. Instalar los modelos Ollama necesarios:

    ollama pull gemma3:1b ollama pull llama3.2:1b ollama pull deepseek-r1:1.5b

Configuración

Cree un archivo .env en la raíz del proyecto con la configuración deseada:

# Server configuration SERVER_NAME=multi-model-advisor SERVER_VERSION=1.0.0 DEBUG=true # Ollama configuration OLLAMA_API_URL=http://localhost:11434 DEFAULT_MODELS=gemma3:1b,llama3.2:1b,deepseek-r1:1.5b # System prompts for each model GEMMA_SYSTEM_PROMPT=You are a creative and innovative AI assistant. Think outside the box and offer novel perspectives. LLAMA_SYSTEM_PROMPT=You are a supportive and empathetic AI assistant focused on human well-being. Provide considerate and balanced advice. DEEPSEEK_SYSTEM_PROMPT=You are a logical and analytical AI assistant. Think step-by-step and explain your reasoning clearly.

Conectarse a Claude para escritorio

  1. Localice el archivo de configuración de Claude for Desktop:

    • MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Ventanas: %APPDATA%\Claude\claude_desktop_config.json

  2. Edite el archivo para agregar el servidor MCP de Multi-Model Advisor:

{ "mcpServers": { "multi-model-advisor": { "command": "node", "args": ["/absolute/path/to/multi-ai-advisor-mcp/build/index.js"] } } }
  1. Reemplace /absolute/path/to/ con la ruta real al directorio de su proyecto

  2. Reiniciar Claude para escritorio

Uso

Una vez conectado a Claude for Desktop, puede utilizar el Asesor Multimodelo de varias maneras:

Lista de modelos disponibles

Puedes ver todos los modelos disponibles en tu sistema:

Show me which Ollama models are available on my system

Esto mostrará todos los modelos de Ollama instalados e indicará cuáles están configurados como predeterminados.

Uso básico

Simplemente pídale a Claude que utilice el asesor multimodelo:

what are the most important skills for success in today's job market, you can use gemma3:1b, llama3.2:1b, deepseek-r1:1.5b to help you

Claude cuestionará todos los modelos predeterminados y proporcionará una respuesta sintetizada basada en sus diferentes perspectivas.

ejemplo

Cómo funciona

  1. El servidor MCP expone dos herramientas:

    • list-available-models : muestra todos los modelos de Ollama en su sistema

    • query-models : Consulta múltiples modelos con una pregunta

  2. Cuando le haces una pregunta a Claude refiriéndose al asesor multimodelo:

    • Claude decide utilizar la herramienta query-models

    • El servidor envía tu pregunta a múltiples modelos de Ollama

    • Cada modelo responde con su perspectiva

    • Claude recibe todas las respuestas y sintetiza una respuesta completa.

  3. A cada modelo se le puede asignar una “persona” o rol diferente, lo que fomenta diversas perspectivas.

Solución de problemas

Problemas de conexión de Ollama

Si el servidor no puede conectarse a Ollama:

  • Asegúrese de que Ollama se esté ejecutando ( ollama serve )

  • Verifique que la OLLAMA_API_URL sea correcta en su archivo .env

  • Intente acceder a http://localhost:11434 en su navegador para verificar que Ollama esté respondiendo

Modelo no encontrado

Si un modelo se informa como no disponible:

  • Comprueba que has extraído el modelo usando ollama pull <model-name>

  • Verifique el nombre exacto del modelo usando ollama list

  • Utilice la herramienta de list-available-models para ver todos los modelos disponibles

Claude no muestra las herramientas MCP

Si las herramientas no aparecen en Claude:

  • Asegúrese de haber reiniciado Claude después de actualizar la configuración

  • Verifique que la ruta absoluta en claude_desktop_config.json sea correcta

  • Mire los registros de Claude para ver los mensajes de error

La RAM no es suficiente

Es posible que los modelos de IA de algunos administradores hayan elegido modelos más grandes, pero no hay suficiente memoria para ejecutarlos. Puede intentar especificar un modelo más pequeño (consulte Uso básico ) o aumentar la memoria.

Licencia

Licencia MIT

Para obtener más detalles, consulte el archivo LICENCIA en este repositorio del proyecto.

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/YuChenSSR/multi-ai-advisor-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server