Skip to main content
Glama

MCP Gemini Server

by amitsh06

Servidor MCP Gemini

Una implementación de servidor del Protocolo de Contexto de Modelo (MCP) para permitir que los asistentes de IA como Claude interactúen con la API Gemini de Google.

Descripción general del proyecto

Este proyecto implementa un servidor que sigue el Protocolo de Contexto de Modelo (MCP), lo que permite a los asistentes de IA comunicarse con los modelos Gemini de Google. Con este servidor MCP, los asistentes de IA pueden solicitar la generación y el análisis de texto, y mantener conversaciones de chat a través de la API de Gemini.

Características

  • Comunicación cliente-servidor : implementa el protocolo MCP para el intercambio seguro de mensajes entre el cliente y el servidor.
  • Procesamiento de mensajes : maneja y procesa las solicitudes de los clientes, enviando respuestas apropiadas.
  • Manejo y registro de errores : registra las actividades del servidor y garantiza una recuperación sin problemas de errores.
  • Compatibilidad con variables de entorno : utiliza el archivo .env para almacenar información confidencial de forma segura.
  • Pruebas y depuración de API : admite pruebas manuales y automatizadas mediante Postman y scripts de prueba.

Instalación

Prerrequisitos

  • Python 3.7 o superior
  • Clave API de Google AI

Configuración

  1. Clonar este repositorio:
git clone https://github.com/yourusername/mcp-gemini-server.git cd mcp-gemini-server
  1. Crear un entorno virtual:
python -m venv venv
  1. Activar el entorno virtual:
    • Windows: venv\Scripts\activate
    • macOS/Linux: source venv/bin/activate
  2. Instalar dependencias:
pip install -r requirements.txt
  1. Cree un archivo .env en el directorio raíz con su clave API de Gemini:
GEMINI_API_KEY=your_api_key_here

Uso

  1. Iniciar el servidor:
python server.py
  1. El servidor se ejecutará en http://localhost:5000/ de forma predeterminada
  2. Envíe solicitudes MCP al punto final /mcp mediante el método POST

Ejemplo de solicitud

import requests url = 'http://localhost:5000/mcp' payload = { 'action': 'generate_text', 'parameters': { 'prompt': 'Write a short poem about AI', 'temperature': 0.7 } } response = requests.post(url, json=payload) print(response.json())

Referencia de API

Puntos finales

  • GET /health : Comprueba si el servidor está en ejecución
  • GET /list-models : Lista de modelos Gemini disponibles
  • POST /mcp : Punto final principal para solicitudes MCP

Acciones del MCP

1. generar_texto

Genere contenido de texto con Gemini.

Parámetros:

  • prompt (obligatorio): el mensaje de texto para la generación
  • temperature (opcional): controla la aleatoriedad (0,0 a 1,0)
  • max_tokens (opcional): Máximo de tokens a generar

Ejemplo:

{ "action": "generate_text", "parameters": { "prompt": "Write a short story about a robot", "temperature": 0.8, "max_tokens": 500 } }
2. analizar_texto

Analizar el contenido del texto.

Parámetros:

  • text (obligatorio): El texto a analizar
  • analysis_type (opcional): Tipo de análisis ('sentimiento', 'resumen', 'palabras clave' o 'general')

Ejemplo:

{ "action": "analyze_text", "parameters": { "text": "The weather today is wonderful! I love how the sun is shining.", "analysis_type": "sentiment" } }
3. chat

Ten una conversación con Géminis.

Parámetros:

  • messages (obligatorio): Matriz de objetos de mensaje con 'rol' y 'contenido'
  • temperature (opcional): controla la aleatoriedad (0,0 a 1,0)

Ejemplo:

{ "action": "chat", "parameters": { "messages": [ {"role": "user", "content": "Hello, how are you?"}, {"role": "assistant", "content": "I'm doing well! How can I help?"}, {"role": "user", "content": "Tell me about quantum computing"} ], "temperature": 0.7 } }

Manejo de errores

El servidor devuelve códigos de estado HTTP y mensajes de error apropiados:

  • 200 : Solicitud exitosa
  • 400 : Solicitud incorrecta (parámetros faltantes o no válidos)
  • 500 : Error del servidor (problemas de API, etc.)

Pruebas

Utilice el script de prueba incluido para probar varias funcionalidades:

# Test all functionalities python test_client.py # Test specific functionality python test_client.py text # Test text generation python test_client.py analyze # Test text analysis python test_client.py chat # Test chat functionality

Especificación del protocolo MCP

El Protocolo de Contexto Modelo implementado aquí sigue estas especificaciones:

  1. Formato de solicitud :
    • action : cadena que especifica la operación
    • parameters : objeto que contiene parámetros específicos de la acción
  2. Formato de respuesta :
    • result : Objeto que contiene el resultado de la operación
    • error : Cadena que explica cualquier error (cuando corresponda)

Licencia

Licencia MIT

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor que implementa el Protocolo de Contexto de Modelo que permite a los asistentes de IA como Claude interactuar con la API Gemini de Google para la generación de texto, el análisis de texto y las conversaciones de chat.

  1. Descripción general del proyecto
    1. Características
      1. Instalación
        1. Prerrequisitos
        2. Configuración
      2. Uso
        1. Ejemplo de solicitud
      3. Referencia de API
        1. Puntos finales
        2. Acciones del MCP
      4. Manejo de errores
        1. Pruebas
          1. Especificación del protocolo MCP
            1. Licencia

              Related MCP Servers

              • -
                security
                A
                license
                -
                quality
                Model Context Protocol (MCP) server implementation that enables Claude Desktop to interact with Google's Gemini AI models.
                Last updated -
                53
                TypeScript
                MIT License
                • Apple
                • Linux
              • -
                security
                F
                license
                -
                quality
                A Model Context Protocol server that enables AI assistants to interact with Gmail services, supporting email operations, draft management, and calendar functionality through Google API integration.
                Last updated -
                TypeScript
              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol server that enables AI assistants like Claude to interact with Google Cloud Platform environments through natural language, allowing users to query and manage GCP resources during conversations.
                Last updated -
                9
                102
                62
                TypeScript
                MIT License
              • -
                security
                F
                license
                -
                quality
                A Model Context Protocol server that enables Claude Desktop to interact with Google's Gemini 2.5 Pro Experimental AI model, with features like Google Search integration and token usage reporting.
                Last updated -
                JavaScript

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/amitsh06/mcp-server'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server