Integrations
Required runtime environment for the MCP server, with version 18.0.0 or higher needed for server operation
Used for dependency management and build processes for the MCP server
Allows interaction with OpenAI models (specifically GPT-4o) to ask questions and receive AI assistance
AI Help AI MCP 服务器
这是一个基于 Model Context Protocol (MCP) 的服务器,允许 AI 代理通过 MCP 协议向其他配置好的大型语言模型(LLM)请求帮助或咨询。
功能特点
- 多模型支持: 内置配置了对多种流行 LLM 的访问(例如 Grok, Gemini, Claude, GPT-4o)。
- 动态工具列表: MCP 服务器会自动列出所有可用的 AI 助手作为独立的工具(例如
ask_grok3
,ask_gemini2_5pro
)。 - 统一接口: 通过标准的 OpenAI 兼容 API 格式与后端 AI 模型交互。
- 对话历史: 维护简单的内存对话历史(最近 5 轮),为每个模型提供上下文。
- 环境配置: 通过环境变量配置后端 API 代理的 URL 和 Key。
系统要求
- Node.js v18.0.0 或更高版本
您可以通过以下命令验证 Node.js 安装:
安装步骤
- 克隆或下载本项目代码。
- 进入项目根目录。
- 安装依赖:Copy
- 构建项目:(注意:Copy
npm install
通常会自动触发npm run build
)
配置说明 (客户端)
此 MCP 服务器本身不读取 .env
文件。您需要在启动此 MCP 服务器的客户端应用程序(例如您的 AI 聊天界面或 MCP 管理工具)中配置以下环境变量:
API_URL
: 指向您的 OpenAI 兼容 API 代理服务器的 基础 URL (例如:http://localhost:3000
)。服务器代码会自动添加/v1/chat/completions
路径。API_KEY
: 用于访问您的 API 代理的密钥 (例如:sk-xxxxxxxx
)。
客户端配置示例 (例如在 VS Code MCP 插件中)
在您的客户端 MCP 服务器配置界面(类似于您截图中的界面):
- 名称: 给这个服务器起个名字,例如
求助AI
。 - 描述: 简要描述,例如
让 AI 去求助别的 AI
。 - 类型: 选择
标准输入/输出 (stdio)
。 - 命令: 输入
node
。 - 参数: 输入指向本项目 编译后 的
index.js
文件的 绝对路径。例如:实际地址\AIHelpAI-MCP\build\index.js
(请根据您的实际路径修改)。 - 环境变量:
- 添加
API_URL
,值为您的 API 代理 URL (例如http://localhost:3000
)。 - 添加
API_KEY
,值为您的 API 密钥 (例如sk-xxxxxxxx
)。
- 添加
保存配置后,客户端应该能够启动并连接到这个 MCP 服务器。
使用方法
配置并启动服务器后,连接到此 MCP 服务器的 AI 代理将看到一系列可用的工具,格式为 ask_<model_key>
,例如:
ask_grok3
ask_gemini2_5pro
ask_claude3_7sonnet
ask_gpt4o
每个工具的描述会说明该 AI 助手的特点和擅长领域。
调用工具时,只需提供一个参数:
prompt
(string, required): 您想向该 AI 助手提出的问题或指令。
服务器将使用配置的 API URL 和 Key,结合内置的模型参数和对话历史,向对应的模型发出请求,并将回复返回给调用方。
开发者工具
您可以使用 MCP Inspector 工具来测试服务器(如果已全局安装或使用 npx):
许可证
请参阅项目仓库中的许可证文件。
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
A server that allows AI agents to consult multiple large language models (like Grok, Gemini, Claude, GPT-4o) through Model Context Protocol for assistance and information.
Related MCP Servers
- -securityAlicense-qualityThis server facilitates the invocation of AI models from providers like Anthropic, OpenAI, and Groq, enabling users to manage and configure large language model interactions seamlessly.Last updated -4PythonMIT License
- -securityAlicense-qualityA Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.Last updated -5PythonMIT License
- -securityFlicense-qualityA Model Context Protocol server that enables role-based context management for AI agents, allowing users to establish specific instructions, maintain partitioned memory, and adapt tone for different agent roles in their system.Last updated -TypeScript
- -securityFlicense-qualityA Model Context Protocol server that bridges AI assistants like Claude with Wordware's specialized agent capabilities, allowing dynamic loading and access to any Wordware flow through a standardized interface.Last updated -Python