MCP Gemini 服务器
模型上下文协议 (MCP) 的服务器实现,使 Claude 等 AI 助手能够与 Google 的 Gemini API 进行交互。
项目概述
该项目实现了一个遵循模型上下文协议 (MCP) 的服务器,允许 AI 助手与 Google 的 Gemini 模型进行通信。借助此 MCP 服务器,AI 助手可以通过 Gemini API 请求文本生成、文本分析以及维护聊天对话。
Related MCP server: Gemini MCP Server
特征
客户端-服务器通信:实现 MCP 协议,以便在客户端和服务器之间进行安全的消息交换。
消息处理:处理和处理客户端请求,发送适当的响应。
错误处理和日志记录:记录服务器活动并确保顺利恢复错误。
环境变量支持:使用
.env文件安全地存储敏感信息。API 测试和调试:支持使用 Postman 和测试脚本进行手动和自动测试。
安装
先决条件
Python 3.7 或更高版本
Google AI API 密钥
设置
克隆此存储库:
创建虚拟环境:
激活虚拟环境:
Windows:
venv\Scripts\activatemacOS/Linux:
source venv/bin/activate
安装依赖项:
使用您的 Gemini API 密钥在根目录中创建一个
.env文件:
用法
启动服务器:
默认情况下,服务器将在
http://localhost:5000/上运行使用 POST 方法向
/mcp端点发送 MCP 请求
示例请求
API 参考
端点
GET /health:检查服务器是否正在运行GET /list-models:列出可用的 Gemini 模型POST /mcp:MCP 请求的主要端点
MCP 操作
1. 生成文本
使用 Gemini 生成文本内容。
参数:
prompt(必需):生成的文本提示temperature(可选):控制随机性(0.0 到 1.0)max_tokens(可选):要生成的最大令牌数
例子:
2. 分析文本
分析文本内容。
参数:
text(必需):要分析的文本analysis_type(可选):分析类型(“情绪”、“摘要”、“关键词”或“一般”)
例子:
3. 聊天
与双子座进行对话。
参数:
messages(必需):具有“角色”和“内容”的消息对象数组temperature(可选):控制随机性(0.0 到 1.0)
例子:
错误处理
服务器返回适当的 HTTP 状态代码和错误消息:
200:请求成功400:错误请求(缺少或无效参数)500:服务器错误(API 问题等)
测试
使用附带的测试脚本来测试各种功能:
MCP 协议规范
这里实现的模型上下文协议遵循以下规范:
请求格式:
action:指定操作的字符串parameters:包含特定于操作的参数的对象
响应格式:
result:包含操作结果的对象error:解释任何错误的字符串(适用时)
执照
MIT 许可证