Skip to main content
Glama

Servidor MCP ComfyUI

1. Descripción general

  • Una implementación de servidor para integrar ComfyUI con MCP.

  • ⚠️ IMPORTANTE: Este servidor requiere un servidor ComfyUI en ejecución.

    • Debes alojar tu propio servidor ComfyUI,

    • o tener acceso a una dirección de servidor ComfyUI existente.


Related MCP server: Stability AI MCP Server

2. Depuración

2.1 Depuración de ComfyUI

python src/test_comfyui.py

2.2 Depuración de MCP

mcp dev src/server.py

3. Instalación y configuración

3.1 Configuración de ComfyUI

  • Edite src/.env para configurar el host y el puerto de ComfyUI:

    COMFYUI_HOST=localhost COMFYUI_PORT=8188

3.2 Agregar flujos de trabajo personalizados

  • Para agregar nuevas herramientas, coloque los archivos JSON de su flujo de trabajo en el directorio de workflows y declárelos como nuevas herramientas en el sistema.


4. Herramientas integradas

  • texto a imagen

    • Devuelve solo la URL de la imagen generada.

    • Para obtener la imagen real:

      • Utilice la herramienta download_image , o

      • Accede a la URL directamente en tu navegador.

  • descargar imagen

    • Descarga imágenes generadas por otras herramientas (como text_to_image ) utilizando la URL de la imagen.

  • ejecutar_flujo_de_trabajo_con_archivo

    • Ejecute un flujo de trabajo proporcionando la ruta a un archivo JSON de flujo de trabajo.

      # You should ask to agent like this. Run comfyui workflow with text_to_image.json
    • imagen de ejemplo de CursorAI

  • ejecutar_flujo_de_trabajo_con_json

    • Ejecute un flujo de trabajo proporcionando los datos JSON del flujo de trabajo directamente.

      # You should ask to agent like this. Run comfyui workflow with this { "3": { "inputs": { "seed": 156680208700286, "steps": 20, ... (workflow JSON example) }

5. Cómo correr

5.1 Uso de UV (recomendado)

  • Ejemplo mcp.json :

    { "mcpServers": { "comfyui": { "command": "uv", "args": [ "--directory", "PATH/MCP/comfyui", "run", "--with", "mcp", "--with", "websocket-client", "--with", "python-dotenv", "mcp", "run", "src/server.py:mcp" ] } } }

5.2 Uso de Docker

  • Descargar imágenes a una carpeta local con download_image puede resultar difícil ya que el contenedor Docker no comparte el sistema de archivos del host.

  • Al utilizar Docker, tenga en cuenta lo siguiente:

    1. Establezca RETURN_URL=false en .env para recibir datos de imagen como bytes.

    2. Establezca COMFYUI_HOST en .env en la dirección adecuada (por ejemplo, host.docker.internal o la IP de su servidor).

    3. Nota: Las cargas útiles de imágenes grandes pueden exceder los límites de respuesta cuando se utilizan datos binarios.

5.2.1 Crear imagen de Docker

# First build image docker image build -t mcp/comfyui .
{ "mcpServers": { "comfyui": { "command": "docker", "args": [ "run", "-i", "--rm", "-p", "3001:3000", "mcp/comfyui" ] } } }

5.2.2 Uso de imágenes existentes

También puedes utilizar imágenes prediseñadas.

{ "mcpServers": { "comfyui": { "command": "docker", "args": [ "run", "-i", "--rm", "-p", "3001:3000", "overseer66/mcp-comfyui" ] } } }

5.2.3 Uso del transporte SSE

  1. Ejecute el servidor SSE con Docker:

    docker run -i --rm -p 8001:8000 overseer66/mcp-comfyui-sse
  2. Configure mcp.json (cambie localhost a su IP o dominio si es necesario):

    { "mcpServers": { "comfyui": { "url": "http://localhost:8001/sse" } } }

NOTA: Al agregar nuevos flujos de trabajo como herramientas, debe reconstruir y volver a implementar las imágenes de Docker para que estén disponibles.


One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Overseer66/comfyui-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server