Asesor Multimodelo
(El hombre que lleva el bolso de compras)
Un servidor de Protocolo de Contexto de Modelo (MCP) que consulta múltiples modelos de Ollama y combina sus respuestas, proporcionando diversas perspectivas de IA sobre una misma pregunta. Esto crea un enfoque de "consejo de asesores" donde Claude puede sintetizar múltiples puntos de vista junto con los suyos para proporcionar respuestas más completas.
Características
- Consultar múltiples modelos de Ollama con una sola pregunta
- Asignar diferentes roles/personajes a cada modelo
- Ver todos los modelos de Ollama disponibles en su sistema
- Personalice las indicaciones del sistema para cada modelo
- Configurar mediante variables de entorno
- Se integra perfectamente con Claude for Desktop
Prerrequisitos
- Node.js 16.x o superior
- Ollama instalado y funcionando (ver Instalación de Ollama )
- Claude para escritorio (para una experiencia de asesoramiento completa)
Instalación
Instalación mediante herrería
Para instalar multi-ai-advisor-mcp para Claude Desktop automáticamente a través de Smithery :
Instalación manual
- Clonar este repositorio:
- Instalar dependencias:
- Construir el proyecto:
- Instalar los modelos Ollama necesarios:
Configuración
Cree un archivo .env
en la raíz del proyecto con la configuración deseada:
Conectarse a Claude para escritorio
- Localice el archivo de configuración de Claude for Desktop:
- MacOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Ventanas:
%APPDATA%\Claude\claude_desktop_config.json
- MacOS:
- Edite el archivo para agregar el servidor MCP de Multi-Model Advisor:
- Reemplace
/absolute/path/to/
con la ruta real al directorio de su proyecto - Reiniciar Claude para escritorio
Uso
Una vez conectado a Claude for Desktop, puede utilizar el Asesor Multimodelo de varias maneras:
Lista de modelos disponibles
Puedes ver todos los modelos disponibles en tu sistema:
Esto mostrará todos los modelos de Ollama instalados e indicará cuáles están configurados como predeterminados.
Uso básico
Simplemente pídale a Claude que utilice el asesor multimodelo:
Claude cuestionará todos los modelos predeterminados y proporcionará una respuesta sintetizada basada en sus diferentes perspectivas.
Cómo funciona
- El servidor MCP expone dos herramientas:
list-available-models
: muestra todos los modelos de Ollama en su sistemaquery-models
: Consulta múltiples modelos con una pregunta
- Cuando le haces una pregunta a Claude refiriéndose al asesor multimodelo:
- Claude decide utilizar la herramienta
query-models
- El servidor envía tu pregunta a múltiples modelos de Ollama
- Cada modelo responde con su perspectiva
- Claude recibe todas las respuestas y sintetiza una respuesta completa.
- Claude decide utilizar la herramienta
- A cada modelo se le puede asignar una “persona” o rol diferente, lo que fomenta diversas perspectivas.
Solución de problemas
Problemas de conexión de Ollama
Si el servidor no puede conectarse a Ollama:
- Asegúrese de que Ollama se esté ejecutando (
ollama serve
) - Verifique que la OLLAMA_API_URL sea correcta en su archivo .env
- Intente acceder a http://localhost:11434 en su navegador para verificar que Ollama esté respondiendo
Modelo no encontrado
Si un modelo se informa como no disponible:
- Comprueba que has extraído el modelo usando
ollama pull <model-name>
- Verifique el nombre exacto del modelo usando
ollama list
- Utilice la herramienta de
list-available-models
para ver todos los modelos disponibles
Claude no muestra las herramientas MCP
Si las herramientas no aparecen en Claude:
- Asegúrese de haber reiniciado Claude después de actualizar la configuración
- Verifique que la ruta absoluta en claude_desktop_config.json sea correcta
- Mire los registros de Claude para ver los mensajes de error
La RAM no es suficiente
Es posible que los modelos de IA de algunos administradores hayan elegido modelos más grandes, pero no hay suficiente memoria para ejecutarlos. Puede intentar especificar un modelo más pequeño (consulte Uso básico ) o aumentar la memoria.
Licencia
Licencia MIT
Para obtener más detalles, consulte el archivo LICENCIA en este repositorio del proyecto.
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
local-only server
The server can only run on the client's local machine because it depends on local resources.
Un servidor MCP que consulta múltiples modelos Ollama y combina sus respuestas, proporcionando diversas perspectivas de IA sobre una sola pregunta para obtener respuestas más completas.
- (El hombre que lleva el bolso de compras)
- Características
- Prerrequisitos
- Instalación
- Configuración
- Conectarse a Claude para escritorio
- Uso
- Cómo funciona
- Solución de problemas
- Licencia
- Contribuyendo
Related Resources
Related MCP Servers
- -securityFlicense-qualityAn interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.Last updated -48TypeScript
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -325PythonMIT License
- AsecurityFlicenseAqualityProvides reasoning content to MCP-enabled AI clients by interfacing with Deepseek's API or a local Ollama server, enabling focused reasoning and thought process visualization.Last updated -143357JavaScript
- AsecurityAlicenseAqualityThis is a Model Context Protocol (MCP) server adaptation of LangChain Ollama Deep Researcher. It provides the deep research capabilities as MCP tools that can be used within the model context protocol ecosystem, allowing AI assistants to perform in-depth research on topics (locally) via OllamaLast updated -313PythonMIT License