Skip to main content
Glama

Implementación de servidor y cliente MCP para usar Azure OpenAI

  • Una implementación mínima de aplicación cliente/servidor que utiliza el Protocolo de contexto de modelo (MCP) y Azure OpenAI.

    1. El servidor MCP está construido con FastMCP .

    2. Playwright es un marco de prueba de extremo a extremo de código abierto de Microsoft para probar sus aplicaciones web modernas.

    3. La respuesta de MCP sobre las herramientas se convertirá al formato de llamada de función OpenAI.

    4. El puente que convierte la respuesta del servidor MCP al formato de llamada de función OpenAI personaliza la implementación MCP-LLM Bridge .

    5. Para garantizar una conexión estable, el objeto de servidor se pasa directamente al puente.

Related MCP server: MCP Simple OpenAI Assistant

Protocolo de Contexto Modelo (MCP)

Protocolo de contexto de modelo (MCP) MCP (Protocolo de contexto de modelo) es un protocolo abierto que permite interacciones seguras y controladas entre aplicaciones de IA y recursos locales o remotos.

Repositorios oficiales

Recursos comunitarios

Proyectos relacionados

  • FastMCP : la forma rápida y Pythonic de crear servidores MCP.

  • Chat MCP : cliente MCP

  • Puente MCP-LLM : implementación de MCP que permite la comunicación entre servidores MCP y LLM compatibles con OpenAI

Dramaturgo del MCP

Configuración

Durante la fase de desarrollo en diciembre de 2024, el proyecto Python debería iniciarse con 'uv'. Otras bibliotecas de gestión de dependencias, como 'pip' y 'poetry', aún no son totalmente compatibles con la CLI de MCP.

  1. Cambie el nombre de .env.template a .env y, luego, complete los valores en .env para Azure OpenAI:

    AZURE_OPEN_AI_ENDPOINT= AZURE_OPEN_AI_API_KEY= AZURE_OPEN_AI_DEPLOYMENT_MODEL= AZURE_OPEN_AI_API_VERSION=
  2. Instalar uv para la gestión de bibliotecas de Python

    pip install uv uv sync
  3. Ejecute python chatgui.py

    • La pantalla de muestra muestra al cliente iniciando un navegador para navegar a la URL.

con respecto a 'stdio'

stdio es una capa de transporte (flujo de datos sin procesar), mientras que JSON-RPC es un protocolo de aplicación (comunicación estructurada). Son distintos, pero a menudo se usan indistintamente; por ejemplo, "JSON-RPC sobre stdio" en los protocolos.

Descripción de la herramienta

@self.mcp.tool() async def playwright_navigate(url: str, timeout=30000, wait_until="load"): """Navigate to a URL.""" -> This comment provides a description, which may be used in a mechanism similar to function calling in LLMs. # Output Tool(name='playwright_navigate', description='Navigate to a URL.', inputSchema={'properties': {'url': {'title': 'Url', 'type': 'string'}, 'timeout': {'default': 30000, 'title': 'timeout', 'type': 'string'}

Consejo: uv

uv run: Run a script. uv venv: Create a new virtual environment. By default, '.venv'. uv add: Add a dependency to a script uv remove: Remove a dependency from a script uv sync: Sync (Install) the project's dependencies with the environment.

Consejo

  • comando taskkill para python.exe

taskkill /IM python.exe /F
  • Código visual: Depurador de Python: la depuración con launch.json iniciará el depurador usando la configuración de .vscode/launch.json.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/kimtth/mcp-aoai-web-browsing'

If you have feedback or need assistance with the MCP directory API, please join our Discord server