hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Supports environment variables through .env file for storing sensitive information like API keys securely.
Provides repository access through GitHub for cloning and installing the server.
Enables interaction with Google's Gemini API, allowing text generation, text analysis, and chat conversations through the Gemini models.
Servidor MCP Gemini
Una implementación de servidor del Protocolo de Contexto de Modelo (MCP) para permitir que los asistentes de IA como Claude interactúen con la API Gemini de Google.
Descripción general del proyecto
Este proyecto implementa un servidor que sigue el Protocolo de Contexto de Modelo (MCP), lo que permite a los asistentes de IA comunicarse con los modelos Gemini de Google. Con este servidor MCP, los asistentes de IA pueden solicitar la generación y el análisis de texto, y mantener conversaciones de chat a través de la API de Gemini.
Características
- Comunicación cliente-servidor : implementa el protocolo MCP para el intercambio seguro de mensajes entre el cliente y el servidor.
- Procesamiento de mensajes : maneja y procesa las solicitudes de los clientes, enviando respuestas apropiadas.
- Manejo y registro de errores : registra las actividades del servidor y garantiza una recuperación sin problemas de errores.
- Compatibilidad con variables de entorno : utiliza el archivo
.env
para almacenar información confidencial de forma segura. - Pruebas y depuración de API : admite pruebas manuales y automatizadas mediante Postman y scripts de prueba.
Instalación
Prerrequisitos
- Python 3.7 o superior
- Clave API de Google AI
Configuración
- Clonar este repositorio:
- Crear un entorno virtual:
- Activar el entorno virtual:
- Windows:
venv\Scripts\activate
- macOS/Linux:
source venv/bin/activate
- Windows:
- Instalar dependencias:
- Cree un archivo
.env
en el directorio raíz con su clave API de Gemini:
Uso
- Iniciar el servidor:
- El servidor se ejecutará en
http://localhost:5000/
de forma predeterminada - Envíe solicitudes MCP al punto final
/mcp
mediante el método POST
Ejemplo de solicitud
Referencia de API
Puntos finales
GET /health
: Comprueba si el servidor está en ejecuciónGET /list-models
: Lista de modelos Gemini disponiblesPOST /mcp
: Punto final principal para solicitudes MCP
Acciones del MCP
1. generar_texto
Genere contenido de texto con Gemini.
Parámetros:
prompt
(obligatorio): el mensaje de texto para la generacióntemperature
(opcional): controla la aleatoriedad (0,0 a 1,0)max_tokens
(opcional): Máximo de tokens a generar
Ejemplo:
2. analizar_texto
Analizar el contenido del texto.
Parámetros:
text
(obligatorio): El texto a analizaranalysis_type
(opcional): Tipo de análisis ('sentimiento', 'resumen', 'palabras clave' o 'general')
Ejemplo:
3. chat
Ten una conversación con Géminis.
Parámetros:
messages
(obligatorio): Matriz de objetos de mensaje con 'rol' y 'contenido'temperature
(opcional): controla la aleatoriedad (0,0 a 1,0)
Ejemplo:
Manejo de errores
El servidor devuelve códigos de estado HTTP y mensajes de error apropiados:
200
: Solicitud exitosa400
: Solicitud incorrecta (parámetros faltantes o no válidos)500
: Error del servidor (problemas de API, etc.)
Pruebas
Utilice el script de prueba incluido para probar varias funcionalidades:
Especificación del protocolo MCP
El Protocolo de Contexto Modelo implementado aquí sigue estas especificaciones:
- Formato de solicitud :
action
: cadena que especifica la operaciónparameters
: objeto que contiene parámetros específicos de la acción
- Formato de respuesta :
result
: Objeto que contiene el resultado de la operaciónerror
: Cadena que explica cualquier error (cuando corresponda)
Licencia
Licencia MIT
This server cannot be installed
Un servidor que implementa el Protocolo de Contexto de Modelo que permite a los asistentes de IA como Claude interactuar con la API Gemini de Google para la generación de texto, el análisis de texto y las conversaciones de chat.