CentralMind/Gateway

Official
by centralmind
Verified

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Provides integration with ClickHouse databases, automatically generating APIs optimized for analytical workloads and high-performance queries.

  • Provides Docker container deployment options for easy setup and consistent runtime environments.

  • Provides integration with ElasticSearch, enabling AI agents to query and search through data via automatically generated APIs.

🚀 Demostración interactiva a través de GitHub Codespaces

¿Qué es Centralmind/Gateway?

Una forma sencilla de exponer su base de datos a AI-Agent a través de los protocolos MCP o OpenAPI 3.1.

docker run --platform linux/amd64 -p 9090:9090 \ ghcr.io/centralmind/gateway:v0.2.6 start \ --connection-string "postgres://db-user:db-password@db-host/db-name?sslmode=require"

Esto ejecutará una API para usted:

INFO Gateway server started successfully! INFO MCP SSE server for AI agents is running at: http://localhost:9090/sse INFO REST API with Swagger UI is available at: http://localhost:9090/

Que puedes utilizar dentro de tu agente de IA:

Gateway generará una API optimizada para IA.

¿Por qué Centralmind/Gateway?

Los agentes de IA y las aplicaciones basadas en LLM necesitan un acceso rápido y seguro a los datos, pero las API y bases de datos tradicionales no están diseñadas para ello. Estamos desarrollando una capa de API que genera automáticamente API seguras y optimizadas para LLM para sus datos estructurados.

Nuestra solución:

  • Filtra información personal identificable (PII) y datos confidenciales para garantizar el cumplimiento de GDPR, CPRA, SOC 2 y otras regulaciones.
  • Agrega capacidades de trazabilidad y auditoría, lo que garantiza que las aplicaciones de IA no sean cajas negras y que los equipos de seguridad mantengan el control.
  • Se optimiza para cargas de trabajo de IA, compatible con el Protocolo de contexto de modelo (MCP) con metainformación mejorada para ayudar a los agentes de IA a comprender las API, junto con funciones de seguridad y almacenamiento en caché integradas.

Nuestros usuarios principales son empresas que implementan agentes de IA para atención al cliente y análisis, donde necesitan modelos para acceder a los datos sin acceso SQL directo a las bases de datos, lo que elimina riesgos de seguridad, cumplimiento y rendimiento.

Características

  • Generación automática de API : crea API automáticamente utilizando LLM según el esquema de tabla y los datos muestreados
  • 🗄️ Compatibilidad con bases de datos estructuradas : compatible con PostgreSQL, MySQL, ClickHouse, Snowflake, MSSQL, BigQuery, Oracle Database, SQLite, ElasticSearch
  • 🌍 Compatibilidad con múltiples protocolos : proporciona API como servidor REST o MCP, incluido el modo SSE
  • 📜 Documentación API : documentación Swagger generada automáticamente y especificación OpenAPI 3.1.0
  • Protección de PII : implementa el complemento de expresiones regulares o el complemento de Microsoft Presidio para la redacción de PII y datos confidenciales
  • Configuración flexible : fácilmente extensible a través de la configuración YAML y el sistema de complementos
  • 🐳 Opciones de implementación : Ejecútelo como un contenedor binario o Docker con un gráfico Helm listo para usar
  • 🤖 Compatibilidad con varios proveedores de IA : compatibilidad con OpenAI , Anthropic , Amazon Bedrock , Google Gemini y Google VertexAI
  • 📦 Local y en las instalaciones : compatibilidad con LLM autoalojados mediante puntos finales y modelos de IA configurables
  • Seguridad a nivel de fila (RLS): control de acceso a datos de grano fino mediante scripts Lua
  • 🔐 Opciones de autenticación : soporte integrado para claves API y OAuth
  • 👀 Monitoreo integral : integración con OpenTelemetry (OTel) para seguimiento de solicitudes y registros de auditoría
  • 🏎️ Optimización del rendimiento : implementa estrategias de almacenamiento en caché LRU y basadas en tiempo

Cómo funciona

1. Conéctate y descubre

Gateway se conecta a sus bases de datos estructuradas, como PostgreSQL, y analiza automáticamente el esquema y las muestras de datos para generar una estructura de API optimizada según sus indicaciones. LLM se utiliza únicamente en la etapa de descubrimiento para generar la configuración de la API. La herramienta utiliza proveedores de IA para generar la configuración de la API, garantizando al mismo tiempo la seguridad mediante la detección de información de identificación personal (PII).

2. Implementar

Gateway admite múltiples opciones de implementación: desde binarios independientes, Docker o Kubernetes. Consulta nuestra guía de lanzamiento para obtener instrucciones detalladas. El sistema utiliza configuración YAML y complementos para una fácil personalización.

3. Usar e integrar

Acceda a sus datos mediante API REST o el Protocolo de Contexto de Modelo (MCP) con funciones de seguridad integradas. Gateway se integra a la perfección con modelos de IA y aplicaciones como LangChain, OpenAI y Claude Desktop mediante llamadas a funciones o Cursor a través de MCP. También puede configurar la telemetría a destinos locales o remotos en formato hotel.

Documentación

Empezando

  • Guía de inicio rápido
  • Instrucciones de instalación
  • Guía de generación de API
  • Guía de lanzamiento de API

Recursos adicionales

  • Guía de integración de ChatGPT
  • Documentación del conector de base de datos
  • Documentación del complemento

Cómo construir

# Clone the repository git clone https://github.com/centralmind/gateway.git # Navigate to project directory cd gateway # Install dependencies go mod download # Build the project go build .

Generación de API

Gateway utiliza modelos LLM para generar la configuración de su API. Siga estos pasos:

  1. Elija uno de nuestros proveedores de inteligencia artificial compatibles:

Google Gemini ofrece un generoso nivel gratuito . Puedes obtener una clave API visitando Google AI Studio:

Una vez iniciada la sesión, puede crear una clave API en la sección API de AI Studio. El plan gratuito incluye una generosa asignación mensual de tokens, lo que lo hace accesible para fines de desarrollo y pruebas.

Configurar la autorización del proveedor de IA. Para Google Gemini, configure una clave API.

export GEMINI_API_KEY='yourkey'
  1. Ejecute el comando de descubrimiento:
./gateway discover \ --ai-provider gemini \ --connection-string "postgresql://neondb_owner:MY_PASSWORD@MY_HOST.neon.tech/neondb?sslmode=require" \ --prompt "Generate for me awesome readonly API"
  1. Monitorizar el proceso de generación:
INFO 🚀 API Discovery Process INFO Step 1: Read configs INFO ✅ Step 1 completed. Done. INFO Step 2: Discover data INFO Discovered Tables: INFO - payment_dim: 3 columns, 39 rows INFO - fact_table: 9 columns, 1000000 rows INFO ✅ Step 2 completed. Done. # Additional steps and output... INFO ✅ All steps completed. Done. INFO --- Execution Statistics --- INFO Total time taken: 1m10s INFO Tokens used: 16543 (Estimated cost: $0.0616) INFO Tables processed: 6 INFO API methods created: 18 INFO Total number of columns with PII data: 2
  1. Revise la configuración generada en gateway.yaml :
api: name: Awesome Readonly API description: '' version: '1.0' database: type: postgres connection: YOUR_CONNECTION_INFO tables: - name: payment_dim columns: # Table columns endpoints: - http_method: GET http_path: /some_path mcp_method: some_method summary: Some readable summary description: 'Some description' query: SQL Query with params params: # Query parameters

Ejecución de la API

Ejecutar localmente

./gateway start --config gateway.yaml rest

Docker Compose

docker compose -f ./example/simple/docker-compose.yml up

Integración del protocolo MCP

Gateway implementa el protocolo MCP para una integración fluida con Claude y otras herramientas. Para obtener instrucciones detalladas de configuración, consulte nuestra guía de integración con Claude.

  1. Construya el binario de la puerta de enlace:
go build .
  1. Configurar la configuración de la herramienta Claude Desktop:
{ "mcpServers": { "gateway": { "command": "PATH_TO_GATEWAY_BINARY", "args": ["start", "--config", "PATH_TO_GATEWAY_YAML_CONFIG", "mcp-stdio"] } } }

Hoja de ruta

Está sujeto a cambios constantes y la hoja de ruta dependerá en gran medida de los comentarios de los usuarios. Actualmente, estamos planificando las siguientes funciones:

Base de datos y conectividad

  • 🗄️ Integraciones de bases de datos extendidas : Redshift, S3 (Iceberg y Parquet), Oracle DB, Microsoft SQL Server, Elasticsearch
  • 🔑 Túnel SSH : capacidad de usar jumphost o ssh bastion para tunelizar conexiones

Funcionalidad mejorada

  • 🔍 Capacidades de consulta avanzadas : sintaxis de filtrado compleja y funciones de agregación como parámetros
  • 🔐 Seguridad MCP mejorada : clave API y autenticación OAuth

Mejoras de la plataforma

  • 📦 Gestión de esquemas : evolución automatizada de esquemas y control de versiones de API
  • 🚦 Gestión avanzada del tráfico : limitación inteligente de velocidad, limitación de solicitudes
  • ✍️ Soporte de operaciones de escritura : operaciones de inserción y actualización
-
security - not tested
A
license - permissive license
-
quality - not tested

Servidor MCP de su base de datos, optimizado para LLM y agentes de IA. Compatible con PostgreSQL, MySQL, ClickHouse, Snowflake, MSSQL, BigQuery, Oracle Database, SQLite, ElasticSearch y DuckDB.

  1. Why Centralmind/Gateway
    1. Features
      1. How it Works
        1. 1. Connect & Discover
        2. 2. Deploy
        3. 3. Use & Integrate
      2. Documentation
        1. Getting Started
        2. Additional Resources
      3. How to Build
        1. API Generation
          1. Running the API
            1. Run locally
            2. Docker Compose
            3. MCP Protocol Integration
          2. Roadmap
            1. Database and Connectivity
            2. Enhanced Functionality
            3. Platform Improvements
          ID: tkhdp69cyc