APISIX 模型上下文协议 (MCP) 服务器
APISIX 模型上下文协议 (MCP) 服务器用于桥接大型语言模型 (LLM) 和 APISIX Admin API。它旨在通过兼容 MCP 的 AI 客户端,实现基于自然语言的交互,以便查看和管理 APISIX 中的资源。
https://github.com/user-attachments/assets/081e878c-225e-4ff8-a9c5-5813f4784cfe
支持行动
常见操作
get_resource
:按类型检索资源(路线、服务、上游等)delete_resource
:通过 ID 删除资源send_request_to_gateway
:向 APISIX 网关发送一个或多个请求
API资源操作
create_route
/update_route
/delete_route
:管理路线create_service
/update_service
/delete_service
:管理服务create_upstream
/update_upstream
/delete_upstream
:管理上游create_ssl
/update_ssl
/delete_ssl
:管理 SSL 证书create_or_update_proto
:管理 protobuf 定义create_or_update_stream_route
:管理流路线
插件操作
get_all_plugin_names
:获取所有可用的插件名称get_plugin_info
/get_plugins_by_type
/get_plugin_schema
:检索插件配置create_plugin_config
/update_plugin_config
:管理插件配置create_global_rule
/update_global_rule
:管理插件全局规则get_plugin_metadata
/create_or_update_plugin_metadata
/delete_plugin_metadata
:管理插件元数据
安全配置
get_secret_by_id
/create_secret
/update_secret
:管理秘密create_or_update_consumer
/delete_consumer
:管理消费者get_credential
/create_or_update_credential
/delete_credential
/:管理消费者凭证create_consumer_group
/delete_consumer_group
:管理消费者组
AI客户端中的配置
先决条件
按照 APISIX入门指南设置并运行 APISIX。
通过 Smithery 安装
要通过Smithery自动为 Claude Desktop 安装 APISIX 模型上下文协议服务器:
使用 npm
使用以下设置配置您的 AI 客户端(Cursor、Claude、Copilot 等):
使用源代码
首先克隆 apisix-mcp 存储库:
安装依赖项并构建项目:
使用以下设置配置您的 AI 客户端(Cursor、Claude、Copilot 等):
环境变量
多变的 | 描述 | 默认值 |
---|---|---|
APISIX_SERVER_HOST | 有权访问您的 APISIX 服务器的主机 | http://127.0.0.1 |
APISIX_SERVER_PORT | APISIX 服务器端口 | 9080 |
APISIX_ADMIN_API_PORT | 管理 API 端口 | 9180 |
APISIX_ADMIN_API_PREFIX | 管理 API 前缀 | /apisix/admin |
APISIX_ADMIN_KEY | 管理 API 身份验证密钥 | edd1c9f034335f136f87ad84b625c8f1 |
要查看或修改 APISIX 中的管理 API 配置,请参阅管理 API文档。
You must be authenticated.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
APISIX 模型上下文协议 (MCP) 服务器将大型语言模型 (LLM) 与 APISIX 管理 API 连接起来。
Related Resources
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol (MCP) compliant server that allows Large Language Models (LLMs) to search and retrieve content from microCMS APIs.Last updated -TypeScriptMIT License
- -securityFlicense-qualityA customized MCP server that enables integration between LLM applications and documentation sources, providing AI-assisted access to LangGraph and Model Context Protocol documentation.Last updated -Python
- -securityAlicense-qualityA Model Context Protocol (MCP) server implementation for the Didlogic API. This server allows Large Language Models (LLMs) to interact with Didlogic services through a standardized interface.Last updated -1PythonMIT License
- -securityAlicense-qualityA Model Context Protocol (MCP) server designed to easily dump your codebase context into Large Language Models (LLMs).Last updated -21JavaScriptApache 2.0