hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Provides integration with ClickHouse databases, automatically generating APIs optimized for analytical workloads and high-performance queries.
Provides Docker container deployment options for easy setup and consistent runtime environments.
Provides integration with ElasticSearch, enabling AI agents to query and search through data via automatically generated APIs.
🚀 通过 GitHub Codespaces 进行交互式演示
什么是 Centralmind/Gateway
通过 MCP 或 OpenAPI 3.1 协议向 AI-Agent 公开数据库的简单方法。
这将为您运行一个 API:
您可以在 AI 代理中使用它:
网关将生成 AI 优化的 API。
为什么选择 Centralmind/Gateway
AI 代理和基于 LLM 的应用程序需要快速、安全地访问数据,但传统的 API 和数据库并非为此而构建。我们正在构建一个 API 层,可自动为您的结构化数据生成安全且经过 LLM 优化的 API。
我们的解决方案:
- 过滤掉 PII 和敏感数据,以确保符合 GDPR、CPRA、SOC 2 和其他法规
- 增加可追溯性和审计功能,确保人工智能应用程序不是黑匣子,并且安全团队保持控制
- 针对 AI 工作负载进行优化,支持模型上下文协议 (MCP),增强元信息以帮助 AI 代理理解 API,同时提供内置缓存和安全功能
我们的主要用户是部署 AI 代理进行客户支持和分析的公司,他们需要模型来访问数据,而无需直接通过 SQL 访问数据库,从而降低安全性、合规性和性能风险。
特征
- ⚡自动 API 生成– 使用基于表架构和采样数据的 LLM 自动创建 API
- 🗄️结构化数据库支持- 支持 PostgreSQL、MySQL、ClickHouse、Snowflake、MSSQL、BigQuery、Oracle Database、SQLite、ElasticSearch
- 🌍多协议支持– 提供 REST 或 MCP 服务器 API,包括 SSE 模式
- 📜 API 文档– 自动生成的 Swagger 文档和 OpenAPI 3.1.0 规范
- 🔒 PII 保护– 实现正则表达式插件或 Microsoft Presidio 插件,用于 PII 和敏感数据编辑
- ⚡灵活的配置– 通过 YAML 配置和插件系统轻松扩展
- 🐳部署选项– 作为二进制文件或 Docker 容器运行,并附带可立即使用的 Helm 图表
- 🤖支持多家 AI 提供商- 支持OpenAI 、 Anthropic 、 Amazon Bedrock 、 Google Gemini和Google VertexAI
- 📦本地和内部部署– 通过可配置的 AI 端点和模型支持自托管 LLM
- 🔑行级安全性(RLS) ——使用 Lua 脚本进行细粒度的数据访问控制
- 🔐身份验证选项– 内置对 API 密钥和 OAuth 的支持
- 👀全面监控——与 OpenTelemetry(OTel)集成,用于请求跟踪和审计跟踪
- 🏎️性能优化——实现基于时间和 LRU 缓存策略
工作原理
1. 连接与发现
Gateway 连接到您的结构化数据库(例如 PostgreSQL),并自动分析架构和数据样本,根据您的提示生成优化的 API 结构。LLM 仅在发现阶段用于生成 API 配置。该工具使用AI 提供程序生成 API 配置,同时通过 PII 检测确保安全性。
2.部署
Gateway 支持多种部署选项,包括独立二进制文件、Docker 或 Kubernetes。查看我们的启动指南,了解详细说明。该系统使用 YAML 配置和插件,方便用户轻松定制。
3. 使用与整合
通过内置安全功能的 REST API 或模型上下文协议 (MCP) 访问您的数据。网关通过 MCP 使用函数调用或 Cursor 与 LangChain、OpenAI 和 Claude Desktop 等 AI 模型和应用程序无缝集成。您还可以以 Otel 格式设置遥测到本地或远程目标。
文档
入门
- 快速入门指南
- 安装说明
- API 生成指南
- API 启动指南
其他资源
- ChatGPT 集成指南
- 数据库连接器文档
- 插件文档
如何构建
API 生成
Gateway 使用 LLM 模型生成您的 API 配置。请按以下步骤操作:
- 选择我们支持的 AI 提供商之一:
- OpenAI和所有与 OpenAI 兼容的提供商
- 人择
- 亚马逊基岩
- Google Vertex AI(人类学)
- 谷歌双子座
Google Gemini提供了慷慨的免费套餐。您可以通过访问 Google AI Studio 获取 API 密钥:
登录后,您可以在 AI Studio 的 API 部分创建 API 密钥。免费套餐包含丰厚的每月令牌分配,可用于开发和测试目的。
配置 AI 提供商授权。对于 Google Gemini,请设置 API 密钥。
- 运行发现命令:
- 监控生成过程:
- 查看
gateway.yaml
中生成的配置:
运行 API
本地运行
Docker Compose
MCP 协议集成
Gateway 实现了 MCP 协议,可与 Claude 及其他工具无缝集成。有关详细的设置说明,请参阅我们的 Claude 集成指南。
- 构建网关二进制文件:
- 配置Claude Desktop工具配置:
路线图
路线图随时可能更改,并且高度依赖于用户反馈。目前,我们正在规划以下功能:
数据库和连接
- 🗄️扩展数据库集成- Redshift、S3(Iceberg 和 Parquet)、Oracle DB、Microsoft SQL Server、Elasticsearch
- 🔑 SSH 隧道- 能够使用 jumphost 或 ssh 堡垒来建立隧道连接
增强功能
- 🔍高级查询功能- 复杂的过滤语法和聚合函数作为参数
- 🔐增强的 MCP 安全性- API 密钥和 OAuth 身份验证
平台改进
- 📦 Schema 管理- 自动进行 Schema 演化和 API 版本控制
- 🚦高级流量管理- 智能速率限制、请求节流
- ✍️写操作支持- 插入、更新操作
This server cannot be installed
数据库的 MCP 服务器已针对 LLM 和 AI 代理进行了优化。支持 PostgreSQL、MySQL、ClickHouse、Snowflake、MSSQL、BigQuery、Oracle Database、SQLite、ElasticSearch、DuckDB