使用 Azure OpenAI 的 MCP 服务器和客户端实现
利用模型上下文协议 (MCP) 和 Azure OpenAI 的最小服务器/客户端应用程序实现。
MCP 服务器是用
FastMCP构建的。Playwright是 Microsoft 推出的一个开源、端到端测试框架,用于测试现代 Web 应用程序。MCP 对工具的响应将转换为 OpenAI 函数调用格式。
将 MCP 服务器响应转换为 OpenAI 函数调用格式的桥梁定制了
MCP-LLM Bridge实现。为了确保稳定的连接,服务器对象被直接传递到桥中。
Related MCP server: MCP Simple OpenAI Assistant
模型上下文协议(MCP)
模型上下文协议 (MCP) MCP(模型上下文协议)是一种开放协议,可实现 AI 应用程序与本地或远程资源之间的安全、受控交互。
官方存储库
社区资源
相关项目
FastMCP :构建 MCP 服务器的快速、Python 方式。
聊天 MCP : MCP 客户端
MCP-LLM Bridge :MCP 实现,支持 MCP 服务器与 OpenAI 兼容的 LLM 之间的通信
MCP剧作家
配置
在 2024 年 12 月的开发阶段,Python 项目应以“uv”启动。其他依赖管理库,例如“pip”和“poetry”,尚未得到 MCP CLI 的完全支持。
将
.env.template重命名为.env,然后在.env中填写 Azure OpenAI 的值:AZURE_OPEN_AI_ENDPOINT= AZURE_OPEN_AI_API_KEY= AZURE_OPEN_AI_DEPLOYMENT_MODEL= AZURE_OPEN_AI_API_VERSION=安装
uv进行 Python 库管理pip install uv uv sync执行
python chatgui.py示例屏幕显示客户端启动浏览器导航到 URL。
相对于‘stdio’
stdio是传输层(原始数据流),而JSON-RPC是应用协议(结构化通信)。它们之间有区别,但经常互换使用,例如,在协议中,“JSON-RPC over stdio”。
工具描述
提示:紫外线
提示
python.exe 的 taskkill 命令
可视化代码:Python 调试器:使用 launch.json 进行调试将使用 .vscode/launch.json 中的配置启动调试器。