多模型顾问
(锵锵四人行)
模型上下文协议 (MCP) 服务器可查询多个 Ollama 模型并整合它们的响应,从而针对单个问题提供不同的 AI 视角。这创建了一种“顾问委员会”模式,Claude 可以将多种观点与自身观点相结合,从而提供更全面的答案。
Related MCP server: MCP Ollama Server
特征
通过一个问题查询多个 Ollama 模型
为每个模型分配不同的角色/人物
查看系统上所有可用的 Ollama 型号
为每个模型定制系统提示
通过环境变量配置
与 Claude for Desktop 无缝集成
先决条件
Node.js 16.x 或更高版本
Ollama 已安装并正在运行(请参阅Ollama 安装)
Claude 桌面版(提供完整的咨询体验)
安装
通过 Smithery 安装
要通过Smithery自动为 Claude Desktop 安装 multi-ai-advisor-mcp:
手动安装
克隆此存储库:
git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git cd multi-ai-advisor-mcp安装依赖项:
npm install构建项目:
npm run build安装所需的 Ollama 模型:
ollama pull gemma3:1b ollama pull llama3.2:1b ollama pull deepseek-r1:1.5b
配置
使用您所需的配置在项目根目录中创建一个.env文件:
连接到 Claude 桌面版
找到您的 Claude for Desktop 配置文件:
MacOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonWindows:
%APPDATA%\Claude\claude_desktop_config.json
编辑文件以添加多模型顾问 MCP 服务器:
将
/absolute/path/to/替换为项目目录的实际路径重启 Claude 桌面版
用法
连接到 Claude for Desktop 后,您可以通过多种方式使用多模型顾问:
列出可用模型
您可以看到系统上所有可用的模型:
这将显示所有已安装的 Ollama 模型并指示哪些模型配置为默认模型。
基本用法
只需要求 Claude 使用多模型顾问:
Claude 将查询所有默认模型并根据它们的不同观点提供综合响应。

工作原理
MCP 服务器公开了两个工具:
list-available-models:显示系统上的所有 Ollama 模型query-models:使用问题查询多个模型
当你向克劳德询问有关多模型顾问的问题时:
Claude 决定使用
query-models工具服务器将您的问题发送给多个 Ollama 模型
每个模型都以其视角做出回应
克劳德收到所有回复并综合出一个全面的答案
每个模型可以分配不同的“角色”或作用,以鼓励不同的观点。
故障排除
Ollama连接问题
如果服务器无法连接到 Ollama:
确保 Ollama 正在运行(
ollama serve)检查 .env 文件中的 OLLAMA_API_URL 是否正确
尝试在浏览器中访问http://localhost:11434来验证 Ollama 是否响应
未找到模型
如果报告某个模型不可用:
检查您是否已使用
ollama pull <model-name>拉取模型使用
ollama list验证确切的模型名称使用
list-available-models工具查看所有可用模型
Claude 未显示 MCP 工具
如果 Claude 中没有出现这些工具:
确保在更新配置后重新启动 Claude
检查claude_desktop_config.json中的绝对路径是否正确
查看 Claude 的日志中的错误消息
RAM 不够
部分经理的 AI 模型可能选择了较大的模型,但内存不足。您可以尝试指定较小的模型(参见基本使用方法)或升级内存。
执照
MIT 许可证
有关详细信息,请参阅此项目存储库中的 LICENSE 文件
贡献
欢迎贡献代码!欢迎提交 Pull 请求。