Enables integration with Google Gemini's API to leverage their models for remote technical advice and debugging support.
Integrates with OpenAI's API to use models like GPT-4o for providing expert guidance and problem-solving assistance during development.
Click on "Install Server".
Wait a few minutes for the server to deploy. Once ready, it will show a "Started" state.
In the chat, type
@followed by the MCP server name and your instructions, e.g., "@Aurai Advisor (上级顾问 MCP)Help me fix this KeyError: 'api_key' not found in my python code"
That's it! The server will respond to your query, and you can continue using it as needed.
Here is a step-by-step guide with screenshots.
上级顾问 MCP (Aurai Advisor)
让本地 AI 获取远程 AI 指导的 MCP 服务器
版本: v2.2.0 (重构与文件上传修复) 状态: [OK] 生产就绪 发布日期: 2026-01-24 优化模型: GLM-4.7 (智谱 AI)
功能特点
[OK] 多轮对话机制 - 智能追问,逐步解决问题
[OK] 智能对话管理 - 自动检测新问题并清空历史,确保干净的上下文
[OK] 智能工具引导 - 工具描述中包含相关工具推荐
[OK] 文件上传支持 ⭐ - 支持通过
sync_context上传文件,大文件自动分批发送[OK] GLM-4.7 优化 - 基于 GLM-4.7 模型参数硬编码优化(200K 上下文)
[OK] 对话历史持久化 - 自动保存到用户目录
[OK] GUI 配置工具 - 可视化配置生成
v2.2.0 更新说明
⚠️ 重要:旧版用户迁移指南
如果您已经安装了 v2.1.x 或更早版本,请注意以下迁移事项:
情况 1:使用 custom provider(OpenAI 兼容 API)的用户 ✅
好消息:无需重新安装或重新配置!
✅ 新的环境变量(
AURAI_CONTEXT_WINDOW、AURAI_MAX_MESSAGE_TOKENS、AURAI_MAX_TOKENS)是可选的✅ 默认值已针对 GLM-4.7 优化(200K 上下文)
✅ 文件上传修复是透明的,会自动生效
情况 2:使用 zhipu、openai、anthropic、gemini provider 的用户 ❌
需要迁移:v2.2.0 移除了这些 provider,需要切换到 custom + OpenAI 兼容 API。
迁移步骤(以智谱 AI 为例):
各服务商迁移配置:
原提供商 | 新 AURAI_BASE_URL | 推荐模型 |
|
|
|
|
|
|
| 需使用第三方兼容 API | - |
| 需使用第三方兼容 API | - |
提示:升级后,建议运行
python .ai_temp/test_file_upload_fix.py验证文件上传功能是否正常。
重大变更
简化服务商支持
✅ 只保留
customprovider(OpenAI 兼容 API)❌ 移除 zhipu、openai、anthropic、gemini 直接支持
✅ 所有兼容 OpenAI API 的服务均可使用
文件上传功能修复 ⭐
✅ 修复
sync_context文件内容未发送给上级 AI 的问题✅ 大文件自动分批发送(超过
max_message_tokens时)✅ 动态 Token 估算,根据配置自动调整
GLM-4.7 模型优化 🎯
✅ 基于 GLM-4.7 模型参数设置默认值
✅ 上下文窗口:200,000 tokens(默认)
✅ 单条消息上限:150,000 tokens(默认)
✅ 最大输出:32,000 tokens(默认)
✅ 支持通过环境变量覆盖(适用于其他模型)
GLM-4.7 Token 配置说明
本版本采用 GLM-4.7 模型参数作为默认值,同时支持通过环境变量覆盖(适用于其他模型):
配置项 | 默认值 | 环境变量 | 说明 |
| 200,000 |
| GLM-4.7 上下文窗口上限 |
| 150,000 |
| 单条文件消息上限 |
| 32,000 |
| 上级 AI 最大输出长度 |
Token 分配策略:
容量参考:
单文件上传上限:~15-20 万中文字符
上级 AI 输出上限:~2-3 万中文字符
对话历史:约 10-15 轮完整对话
注意:默认值基于 GLM-4.7 优化,使用其他模型时可通过环境变量调整。
快速开始
1. 安装
2. 配置
重要: 使用 --scope user 确保在所有项目中都可用。
3. 使用
重启 Claude Code 后,在对话中直接描述编程问题:
AI 会自动判断是否调用 consult_aurai 工具。
MCP 工具
consult_aurai(主要工具)
请求上级 AI 指导解决编程问题
参数:
problem_type: 问题类型(runtime_error/syntax_error/design_issue/other)error_message: 错误描述code_snippet: 代码片段(可选)context: 上下文信息(可选)is_new_question: 是否为新问题(可选,默认false)
返回: 上级 AI 的分析和建议
🔗 相关工具:
sync_context:上传文档或代码文件(支持 .md 和 .txt)
report_progress:报告执行进度并获取下一步指导
get_status:查看当前对话状态、配置信息
对话历史管理:
自动清空: 当上级AI返回
resolved=true时,自动清空对话历史手动清空: 设置
is_new_question=true强制清空历史历史限制: 最多保存50条历史记录
sync_context ⭐
同步代码上下文,上传文件供上级 AI 阅读
参数:
operation: 操作类型(full_sync/incremental/clear)files: 文件路径列表(支持 .txt 和 .md)project_info: 项目信息字典(可选)
功能特性:
📄 支持上传 Markdown 和文本文件
🔄 大文件自动分批发送(避免超出 Token 限制)
📏 智能 Token 估算(中文 1.5字/token,英文 4字/token)
典型使用场景:
report_progress
报告执行进度
参数:
actions_taken: 已执行的行动result: 执行结果(success/failed/partial)
get_status
获取当前状态
返回:
对话历史数量
模型配置
Token 限制配置
文档
环境变量
必填
变量 | 说明 | 示例 |
| API 密钥 |
|
| API 地址 |
|
| 模型名称 |
|
可选
变量 | 说明 | 默认值 |
| 温度参数(0.0-2.0) |
|
| 对话历史最大保存数 |
|
| 上下文窗口大小(tokens) |
|
| 单条消息最大 tokens |
|
| 最大输出 tokens |
|
Token 配置说明
默认值(基于 GLM-4.7):
context_window: 200,000 tokensmax_message_tokens: 150,000 tokensmax_tokens: 32,000 tokens
其他模型参考:
Claude 3.5 Sonnet: 200,000 / 140,000 / 64,000
GPT-4o: 128,000 / 100,000 / 32,000
DeepSeek: 64,000 / 50,000 / 16,000
配置示例
项目结构
故障排查
每次打开 Claude Code 都要重新安装?
原因:使用了本地范围(local),只在特定目录可用。
解决方案:使用 --scope user 重新安装
MCP 工具没有出现
ModuleNotFoundError
401 Unauthorized
检查 API 密钥是否正确
访问提供商平台重新生成密钥
404 Model not found
检查模型名称拼写
使用提供商 API 确认可用模型
文件内容未发送给上级 AI
确保
sync_context调用成功查看日志中的 "文件已拆分为 X 个片段" 消息
检查
AURAI_MAX_MESSAGE_TOKENS配置
测试
获取帮助
用户手册: docs/用户手册.md
开发文档: docs/开发文档.md
许可证
MCP Aurai Server 双重许可协议
项目名称: mcp-aurai-server 版本: v2.2.0 状态: [OK] 生产就绪 发布日期: 2026-01-24