Skip to main content
Glama

estudIA-MCP

by JpAboytes

estudIA-MCP

RAG + FastMCP - Servidor MCP con Supabase y Gemini

🚀 Descripción

Servidor MCP (Model Context Protocol) que integra:

  • Google Gemini para generación de embeddings

  • Supabase para almacenamiento vectorial

  • FastMCP para exponer herramientas via MCP

📋 Requisitos

  • Python >= 3.10

  • Cuenta de Google Cloud con API de Gemini habilitada

  • Proyecto de Supabase configurado

🔧 Instalación

  1. Clonar el repositorio

git clone <tu-repo> cd estudIA-MCP
  1. Crear entorno virtual

python -m venv venv # Windows .\venv\Scripts\activate # Linux/Mac source venv/bin/activate
  1. Instalar dependencias

pip install -e .
  1. Configurar variables de entorno

# Copiar el archivo de ejemplo copy .env.example .env

Edita .env con tus credenciales:

SUPABASE_URL=https://tu-proyecto.supabase.co SUPABASE_KEY=tu_anon_key_aqui GEMINI_API_KEY=tu_gemini_api_key
  1. Configurar Supabase

Ve al SQL Editor en tu proyecto de Supabase y ejecuta el contenido de supabase_setup.sql

🎯 Herramientas Disponibles

1. generate_embedding

Genera un vector embedding a partir de texto usando Gemini.

Parámetros:

  • text (string): Texto para convertir en embedding

Ejemplo:

{ "text": "Este es un texto de ejemplo para generar embedding" }

2. store_embedding

Genera un embedding y lo almacena en Supabase.

Parámetros:

  • text (string): Texto para convertir y almacenar

  • table_name (string, opcional): Nombre de la tabla (default: "embeddings")

  • metadata (dict, opcional): Metadata adicional

Ejemplo:

{ "text": "Contenido del documento", "metadata": {"source": "documento.pdf", "page": 1} }

3. search_similar

Busca documentos similares usando búsqueda vectorial.

Parámetros:

  • query_text (string): Texto de búsqueda

  • table_name (string, opcional): Nombre de la tabla

  • limit (int, opcional): Número de resultados (default: 5)

  • threshold (float, opcional): Umbral de similitud 0-1 (default: 0.7)

Ejemplo:

{ "query_text": "¿Qué es la inteligencia artificial?", "limit": 3, "threshold": 0.75 }

🏃 Ejecutar

python main.py

🔗 Integración con Claude Desktop

Agrega esto a tu configuración de Claude Desktop (claude_desktop_config.json):

{ "mcpServers": { "estudIA": { "command": "python", "args": ["c:/Users/Hp/Desktop/estudIA-MCP/main.py"], "env": { "SUPABASE_URL": "tu_url", "SUPABASE_KEY": "tu_key", "GEMINI_API_KEY": "tu_key" } } } }

📚 Recursos

📝 Notas

  • Los embeddings de Gemini tienen 768 dimensiones

  • Asegúrate de tener habilitada la extensión pgvector en Supabase

  • La función match_documents debe estar creada en tu base de datos

🤝 Contribuir

Las contribuciones son bienvenidas. Por favor abre un issue primero para discutir los cambios.

📄 Licencia

MIT

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

RAG-enabled MCP server that uses Google Gemini for embeddings and Supabase for vector storage, enabling semantic search and document similarity matching through natural language queries.

  1. 🚀 Descripción
    1. 📋 Requisitos
      1. 🔧 Instalación
        1. 🎯 Herramientas Disponibles
          1. 1. generate_embedding
          2. 2. store_embedding
          3. 3. search_similar
        2. 🏃 Ejecutar
          1. 🔗 Integración con Claude Desktop
            1. 📚 Recursos
              1. 📝 Notas
                1. 🤝 Contribuir
                  1. 📄 Licencia

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/JpAboytes/estudIA-MCP'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server