Consult7
Consult7 MCP 服务器
Consult7 是一个模型上下文协议 (MCP) 服务器,它使 AI 智能体能够通过 OpenRouter 咨询大上下文窗口模型,从而分析庞大的文件集合——包括整个代码库、文档存储库或超过当前智能体上下文限制的混合内容。
为什么选择 Consult7?
Consult7 使任何兼容 MCP 的智能体能够将文件分析任务卸载给大上下文模型(最高 200 万 token)。在以下情况非常有用:
智能体当前上下文已满
任务需要专门的模型能力
需要在单个查询中分析大型代码库
希望比较不同模型的结果
“对于 Claude Code 用户来说,Consult7 是一个颠覆性的工具。”
工作原理
Consult7 从您提供的特定路径收集文件(文件名中支持可选通配符),将它们汇编成单个上下文,并连同您的查询一起发送给大上下文窗口模型。结果将直接反馈给您正在使用的智能体。
示例用例
快速代码库摘要
文件:
["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]查询: “总结此 Python 项目的架构和主要组件”
模型:
"google/gemini-3-flash-preview"模式:
"fast"
深度推理分析
文件:
["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]查询: “分析此代码库中的身份验证流程。逐步思考安全漏洞并提出改进建议”
模型:
"anthropic/claude-opus-4.7"模式:
"think"
生成并保存报告到文件
文件:
["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]查询: “生成一份包含架构分析、代码质量评估和改进建议的综合代码审查报告”
模型:
"google/gemini-2.5-pro"模式:
"think"输出文件:
"/Users/john/reports/code_review.md"结果: 返回
"Result has been saved to /Users/john/reports/code_review.md",而不是淹没智能体的上下文
特色:Gemini 3.1 模型
Consult7 支持 Google 的 Gemini 3.1 系列:
Gemini 3.1 Pro (
google/gemini-3.1-pro-preview) - 旗舰推理模型,100 万上下文Gemini 3 Flash (
google/gemini-3-flash-preview) - 超快模型,100 万上下文Gemini 3.1 Flash Lite (
google/gemini-3.1-flash-lite-preview) - 超快轻量级模型,100 万上下文
高级用户的快速助记符:
gemt= Gemini 3.1 Pro + think(旗舰推理)gemf= Gemini 3 Flash + fast(超快)gptt= GPT-5.5 + think(最新 GPT)grot= Grok 4.20 + think(自动推理)oput= Claude Opus 4.7 + think(自适应思维)ULTRA= 并行运行 GEMT、GPTT、GROT 和 OPUT(4 个前沿模型)
这些助记符使您可以在查询中轻松引用模型+模式组合。
安装
Claude Code
只需运行:
claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-keyClaude Desktop
添加到您的 Claude Desktop 配置文件中:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "your-openrouter-api-key"]
}
}
}将 your-openrouter-api-key 替换为您实际的 OpenRouter API 密钥。
无需安装 - uvx 会自动在隔离环境中下载并运行 consult7。
命令行选项
uvx consult7 <api-key> [--test]<api-key>:必需。您的 OpenRouter API 密钥--test:可选。测试 API 连接
模型和模式是在调用工具时指定的,而不是在启动时。
支持的模型
Consult7 支持 OpenRouter 上提供的 所有 500 多种模型。以下是具有优化动态文件大小限制的旗舰模型:
模型 | 上下文 | 用例 |
| 1M | 最新 GPT,性能均衡 |
| 1M | 旗舰推理模型 |
| 1M | Gemini 3 Flash,超快 |
| 1M | 超快轻量级模型 |
| 1M | 最佳质量,自适应思维 |
| 1M | 出色的推理,快速 |
| 200k | 经济型,非常快 |
| 2M | 自动推理,超大上下文 |
| 2M | 最大上下文窗口 |
快速助记符:
gptt=openai/gpt-5.5+think(最新 GPT,深度推理)gemt=google/gemini-3.1-pro-preview+think(Gemini 3.1 Pro,旗舰推理)grot=x-ai/grok-4.20+think(Grok 4.20,自动推理)oput=anthropic/claude-opus-4.7+think(Claude Opus,自适应思维)opuf=anthropic/claude-opus-4.7+fast(Claude Opus,无推理)gemf=google/gemini-3-flash-preview+fast(Gemini 3 Flash,超快)ULTRA= 并行调用 GEMT、GPTT、GROT 和 OPUT(4 个前沿模型以获得最大洞察力)
您可以使用任何 OpenRouter 模型 ID(例如 deepseek/deepseek-r1-0528)。请参阅 完整模型列表。文件大小限制是根据每个模型的上下文窗口自动计算的。
性能模式
fast:无推理 - 快速回答,简单任务mid:中等推理 - 代码审查,错误分析think:最大推理 - 安全审计,复杂重构
文件规范规则
仅限绝对路径:
/Users/john/project/src/*.py仅文件名中支持通配符:
/Users/john/project/*.py(目录路径中不支持)通配符需带扩展名:
*.py而不是*混合文件和模式:
["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]
常见模式:
所有 Python 文件:
/path/to/dir/*.py测试文件:
/path/to/tests/*_test.py或/path/to/tests/test_*.py多个扩展名:
["/path/*.js", "/path/*.ts"]
自动忽略: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules
大小限制: 基于模型上下文窗口的动态限制(例如 Grok 4.20:约 8MB,GPT-5.5:约 4MB)
工具参数
咨询工具接受以下参数:
files(必需):绝对文件路径列表或仅在文件名中包含通配符的模式
query(必需):您的问题或 LLM 处理文件的指令
model(必需):要使用的 LLM 模型(见上文“支持的模型”)
mode(必需):性能模式 -
fast、mid或thinkoutput_file(可选):将响应保存到文件的绝对路径,而不是返回它
如果文件已存在,它将以
_updated后缀保存(例如report.md→report_updated.md)指定后,仅返回:
"Result has been saved to /path/to/file"对于生成报告、文档或分析而不淹没智能体上下文非常有用
zdr(可选):启用零数据保留 (Zero Data Retention) 路由(默认:
false)当为
true时,仅路由到具有 ZDR 策略的端点(提供商不保留提示词)可用 ZDR:Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5
不可用:GPT-5.5, Grok 4.20(返回错误)
使用示例
通过 Claude Code 中的 MCP
Claude Code 将自动使用带有正确参数的工具:
{
"files": ["/Users/john/project/src/*.py"],
"query": "Explain the main architecture",
"model": "google/gemini-3-flash-preview",
"mode": "fast"
}通过 Python API
from consult7.consultation import consultation_impl
result = await consultation_impl(
files=["/path/to/file.py"],
query="Explain this code",
model="google/gemini-3-flash-preview",
mode="fast", # fast, mid, or think
provider="openrouter",
api_key="sk-or-v1-..."
)测试
# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --test卸载
要从 Claude Code 中删除 consult7:
claude mcp remove consult7 -s user版本历史
v3.6.0
升级模型:GPT-5.5, Claude Opus 4.7, Grok 4.20
Claude Opus 4.7 (1M 上下文) 使用自适应思维 —
reasoning.enabled=trueGrok 4.20 (2M 上下文) 使用自动推理 —
reasoning.enabled=true更新助记符:
gptt→ GPT-5.5,oput/opuf→ Claude Opus 4.7,grot→ Grok 4.20仍支持旧版模型 ID
v3.5.0
升级 GPT-5.2 → GPT-5.4 (约 1M 上下文)
v3.4.0
升级模型:Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast
新增模型:Claude Haiku 4.5, Gemini 3.1 Flash Lite
更新助记符:
gemt→ Gemini 3.1 Pro,oput/opuf→ Claude Opus 4.6仍支持旧版模型 ID
v3.3.0
修复 GPT-5.2 思维模式截断问题(切换为流式传输)
新增
google/gemini-3-flash-preview(Gemini 3 Flash, 超快)更新
gemf助记符以使用 Gemini 3 Flash新增
zdr参数用于零数据保留路由
v3.2.0
更新至 GPT-5.2,支持基于努力的推理
v3.1.0
新增
google/gemini-3-pro-preview(1M 上下文,旗舰推理模型)新助记符:
gemt(Gemini 3 Pro),grot(Grok 4),ULTRA(并行执行)
v3.0.0
移除 Google 和 OpenAI 直接提供商 - 现在仅限 OpenRouter
移除
|thinking后缀 - 改用mode参数(现在必需)清晰的
mode参数 API:fast,mid,think简化 CLI,从
consult7 <provider> <key>变为consult7 <key>更好的 MCP 集成,具有模式的枚举验证
基于模型上下文窗口的动态文件大小限制
v2.1.0
新增
output_file参数以将响应保存到文件
v2.0.0
新的文件列表接口,简化了验证
将文件大小限制降低到实际值
许可证
MIT
This server cannot be installed
Maintenance
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'
If you have feedback or need assistance with the MCP directory API, please join our Discord server