Skip to main content
Glama

YindDao RPA MCP Server

by AutomaApp

YingDao AI Power : una plataforma de IA de código bajo que crea rápidamente agentes de IA y flujos de trabajo de IA, lo que ayuda a los usuarios a aprovechar la IA de manera eficaz.

YingDao RPA : una plataforma RPA de código bajo, un producto de automatización RPA fácil de usar que libera a las personas del trabajo repetitivo.

El servidor MCP de Yingdao RPA se implementa con base en el Protocolo de Contexto de Modelo (MCP), lo que proporciona un puente para la interacción entre YindDao AI Power y otras herramientas que pueden servir como hosts MCP (como Claude Desktop, Cursor, etc.). Permite que la IA utilice las capacidades de RPA.

Admite los modos de servidor SSE y servidor Stdio.

Empezando

Hay dos formas de ejecutar YindDao RPA:

Modo local

Establecer variables de entorno:

RPA_MODEL=local SHADOWBOT_PATH={your_shadowbot_path} //Path to YindDao RPA executable USER_FOLDER={your_user_folder} //Path to YindDao RPA user folder

Ruta al ejecutable de YindDao RPA

Ventanas

D:\Program Files\{installation directory}\ShadowBot.exe

Impermeable

/Applications/影刀.app

Ruta a la carpeta de usuario de YindDao RPA

Encuentre la opción de carpeta de usuario en la configuración de YindDao RPA

Configuración de la carpeta de usuario

Modo API abierto (solo para usuarios empresariales)

Establecer variables de entorno:

RPA_MODEL=openApi ACCESS_KEY_ID={your_access_key_id} ACCESS_KEY_SECRET={your_access_key_secret}

Cómo obtener

Los administradores empresariales pueden obtener esta información iniciando sesión en la consola de YindDao RPA. Consulte la documentación de ayuda de YindDao RPA: Autenticación.

Inicio del servidor Stdio

Configurar en el cliente:

{ "mcpServers": { "YingDao RPA MCP Server": { "command": "npx", "args": ["-y", "@automa-ai-power/rpa-mcp-servers", "-stdio"], "env":{ "RPA_MODEL":"openApi", "ACCESS_KEY_ID":"{your_access_key_id}", "ACCESS_KEY_SECRET":"{your_access_key_secret}" } } } }

Configuración del servidor SSE

Construir

Clonar el repositorio y compilar:

git clone https://github.com/AutomaApp/aipower-rpa-mcp-server.git cd aipower-rpa-mcp-servers npm install npm run build

Configuración

Agregue un archivo .env con elementos de configuración como se describe arriba

Puesta en marcha

npm run start:server

Configuración del cliente

Configuración del cliente AI Power:

{ "mcpServers": { "YingDao RPA MCP Server": { "url": "http://localhost:3000/sse", "description": "Yingdao RPA MCP Server" } } }

El puerto predeterminado es 3000

Capacidades

Modo local

  1. queryRobotParam : Consulta los parámetros de la aplicación RPA
  2. queryApplist : consulta la lista de aplicaciones RPA
  3. runApp : Ejecutar aplicación RPA

Modo API abierto

  1. uploadFile : Subir archivos a la plataforma RPA
  2. queryRobotParam : Consulta los parámetros de la aplicación RPA
  3. queryApplist : Obtener la lista paginada de aplicaciones RPA
  4. startJob : Iniciar un trabajo de RPA
  5. queryJob : Consulta el estado del trabajo de RPA
  6. queryClientList : consulta la lista de clientes del robot RPA

Licencia

Instituto Tecnológico de Massachusetts (MIT)

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor que implementa el Protocolo de contexto de modelo (MCP) que conecta YindDao AI Power con los hosts MCP, lo que permite que la IA utilice las capacidades de RPA para la automatización del flujo de trabajo.

  1. Modo local
    1. Ruta al ejecutable de YindDao RPA
    2. Ruta a la carpeta de usuario de YindDao RPA
  2. Modo API abierto (solo para usuarios empresariales)
    1. Cómo obtener
  3. Inicio del servidor Stdio
    1. Configuración del servidor SSE
      1. Construir
      2. Configuración
      3. Puesta en marcha
      4. Configuración del cliente
    2. Capacidades
      1. Modo local
      2. Modo API abierto

    Related MCP Servers

    • -
      security
      F
      license
      -
      quality
      A TypeScript implementation of a Model Context Protocol (MCP) server that exposes Dify workflows as tools for AI systems to interact with.
      Last updated -
      16
      TypeScript
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol (MCP) server that exposes the official Notion SDK, allowing AI models to interact with Notion workspaces.
      Last updated -
      17
      77
      7
      TypeScript
      Apache 2.0
      • Apple
      • Linux
    • A
      security
      F
      license
      A
      quality
      Model Context Protocol (MCP) server that integrates Redash with AI assistants like Claude, allowing them to query data, manage visualizations, and interact with dashboards through natural language.
      Last updated -
      10
      104
      21
      JavaScript
      • Apple
    • -
      security
      F
      license
      -
      quality
      Implements the Model Context Protocol (MCP) to provide AI models with a standardized interface for connecting to external data sources and tools like file systems, databases, or APIs.
      Last updated -
      90
      Python
      • Apple
      • Linux

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/AutomaApp/aipower-rpa-mcp-server'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server