Skip to main content
Glama

ProtoLinkAI MCP Server

by StevenROyola

ProtoLink AI es un marco estandarizado de herramientas que permite implementar y gestionar diversas herramientas de forma unificada. Está diseñado para ayudar a los desarrolladores a integrar y lanzar rápidamente casos de uso basados en herramientas.

Características principales

  • 🔧 Envoltura estandarizada : proporciona una capa de abstracción para crear herramientas utilizando el protocolo MCP.
  • 🚀 Casos de uso flexibles : agregue o elimine herramientas fácilmente para adaptarse a sus requisitos específicos.
  • Herramientas listas para usar : incluye herramientas prediseñadas para escenarios comunes:
    • 🐦 Gestión de Twitter : automatiza la publicación de tweets, las respuestas y la gestión de las interacciones de Twitter.
    • 💸 Criptomonedas: Obtenga los últimos precios de criptomonedas.
    • 🤖 Integración con ElizaOS : conéctese e interactúe sin problemas con ElizaOS para una mejor automatización.
    • 🕑 Utilidades del tiempo
    • ☁️ Información meteorológica (API)
    • 📚 Búsquedas en el diccionario
    • 🧮 Calculadora para expresiones matemáticas
    • 💵 Cambio de divisas (API)
    • 📈 Datos bursátiles: acceda a información histórica y en tiempo real del mercado de valores.
    • [WIP] 📰 Noticias: Recupera los titulares de las noticias más recientes.

Pila tecnológica 🛠️

  • Python : lenguaje de programación central
  • Marco MCP : Protocolo de comunicación
  • Docker : Contenerización
🤔 ¿Qué es MCP?

El Protocolo de Contexto de Modelo ( MCP ) es un estándar de vanguardia para compartir y gestionar el contexto entre modelos y sistemas de IA. Considérelo el lenguaje que utilizan los agentes de IA para interactuar fluidamente. 🧠✨

He aquí por qué es importante el MCP :

  • 🧩 Estandarización : MCP define cómo se puede compartir el contexto entre los modelos, lo que permite la interoperabilidad .
  • Escalabilidad : está diseñado para manejar sistemas de IA a gran escala con alto rendimiento.
  • 🔒 Seguridad : Autenticación robusta y control de acceso detallado.
  • 🌐 Flexibilidad : funciona en diversos sistemas y arquitecturas de IA.

arquitectura mcp fuente

Instalación 📦

Instalar mediante PyPI

pip install ProtoLinkai

Uso 💻

Ejecutar localmente

ProtoLinkai --local-timezone "America/New_York"

Ejecutar en Docker

  1. Construya la imagen de Docker: docker build -t ProtoLinkai .
  2. Ejecute el contenedor: docker run -i --rm ProtoLinkai

Integración de Twitter 🐦

MProtoLinkAI ofrece una sólida integración con Twitter, lo que permite automatizar la publicación de tweets, las respuestas y la gestión de las interacciones en Twitter. Esta sección proporciona instrucciones detalladas sobre la configuración y el uso de la integración con Twitter, tanto mediante Docker como mediante .env + scripts/run_agent.sh .

Variables de entorno de Docker para la integración de Twitter

Al ejecutar ProtoLinkAI en Docker, es fundamental configurar las variables de entorno para la integración con Twitter. Estas variables se dividen en dos categorías:

1. Credenciales del cliente del nodo del agente

El cliente Node.js utiliza estas credenciales dentro del agente para administrar las interacciones de Twitter.

ENV TWITTER_USERNAME= ENV TWITTER_PASSWORD= ENV TWITTER_EMAIL=
2. Credenciales de Tweepy (Twitter API v2)

Tweepy utiliza estas credenciales para interactuar con la API v2 de Twitter.

ENV TWITTER_API_KEY= ENV TWITTER_API_SECRET= ENV TWITTER_ACCESS_TOKEN= ENV TWITTER_ACCESS_SECRET= ENV TWITTER_CLIENT_ID= ENV TWITTER_CLIENT_SECRET= ENV TWITTER_BEARER_TOKEN=
  1. Construya la imagen de Docker:
    docker build -t ProtoLinkai .
  2. Ejecute el contenedor:
    docker run -i --rm ProtoLinkai
Configuración de variables de entorno

Cree un archivo .env en el directorio raíz de su proyecto y agregue las siguientes variables de entorno:

ANTHROPIC_API_KEY=your_anthropic_api_key ELIZA_PATH=/path/to/eliza TWITTER_USERNAME=your_twitter_username TWITTER_EMAIL=your_twitter_email TWITTER_PASSWORD=your_twitter_password PERSONALITY_CONFIG=/path/to/personality_config.json RUN_AGENT=True # Tweepy (Twitter API v2) Credentials TWITTER_API_KEY=your_twitter_api_key TWITTER_API_SECRET=your_twitter_api_secret TWITTER_ACCESS_TOKEN=your_twitter_access_token TWITTER_ACCESS_SECRET=your_twitter_access_secret TWITTER_CLIENT_ID=your_twitter_client_id TWITTER_CLIENT_SECRET=your_twitter_client_secret TWITTER_BEARER_TOKEN=your_twitter_bearer_token
Ejecución del agente
  1. Hacer que el script sea ejecutable:
    chmod +x scripts/run_agent.sh
  2. Ejecute el agente:
    bash scripts/run_agent.sh

Resumen

Puede configurar ProtoLink para que se ejecute con la integración de Twitter utilizando Docker o configurando variables de entorno en un archivo .env y ejecutando el script scripts/run_agent.sh .

Esta flexibilidad le permite elegir el método que mejor se adapte a su entorno de implementación.


Integración con ElizaOS 🤖

Este enfoque permite usar los Agentes de Eliza sin ejecutar Eliza Framework en segundo plano. Simplifica la configuración al integrar la funcionalidad de Eliza directamente en ProtoLink.

Pasos:

  1. Configurar ProtoLink para usar Eliza MCP Agent: En su código Python, agregue Eliza MCP Agent a MultiToolAgent :
    from ProtoLink.core.multi_tool_agent import MultiToolAgent from ProtoLink.tools.eliza_mcp_agent import eliza_mcp_agent multi_tool_agent = MultiToolAgent([ # ... other agents eliza_mcp_agent ])

Ventajas:

  • Configuración simplificada: no es necesario administrar procesos en segundo plano separados.
  • Supervisión más sencilla: todas las funcionalidades están encapsuladas dentro de MCPAgentAI.
  • Característica destacada: enfatiza la flexibilidad de MCPAgentAI para integrar varias herramientas sin problemas.

2. Ejecute Eliza Framework desde ProtoLinkai

Este método implica ejecutar Eliza Framework como un proceso en segundo plano separado junto con ProtoLinkAI.

Pasos:

  1. Iniciar Eliza Framework: bash src/ProtoLinkai/tools/eliza/scripts/run.sh
  2. Monitorear procesos de Eliza: bash src/ProtoLinkai/tools/eliza/scripts/monitor.sh
  3. Configurar MCPAgentAI para usar Eliza Agent: En su código Python, agregue Eliza Agent a MultiToolAgent :
    from ProtoLink.core.multi_tool_agent import MultiToolAgent from ProtoLink.tools.eliza_agent import eliza_agent multi_tool_agent = MultiToolAgent([ # ... other agents eliza_agent ])

Tutorial: Cómo seleccionar herramientas específicas

Puede configurar ProtoLink para que ejecute solo ciertas herramientas modificando la configuración del agente en su servidor o actualizando el archivo server.py para que cargue únicamente los agentes deseados. Por ejemplo:

from ProtoLinkai.tools.time_agent import TimeAgent from ProtoLinkai.tools.weather_agent import WeatherAgent from ProtoLinkai.core.multi_tool_agent import MultiToolAgent multi_tool_agent = MultiToolAgent([ TimeAgent(), WeatherAgent() ]) This setup will only enable **Time** and **Weather** tools.

Ejemplo de integración: Configuración de escritorio de Claude

Puede integrar ProtoLinkAI con Claude Desktop usando la siguiente configuración ( claude_desktop_config.json ), tenga en cuenta que el repositorio local de ElizaOS es un argumento opcional:

{ "mcpServers": { "mcpagentai": { "command": "docker", "args": ["run", "-i", "-v", "/path/to/local/eliza:/app/eliza", "--rm", "mcpagentai"] } } }

Desarrollo 🛠️

  1. Clonar este repositorio:
    git clone https://github.com/StevenROyola/ProtoLink.git cd mcpagentai
  2. (Opcional) Crear un entorno virtual:
    python3 -m venv .venv source .venv/bin/activate
  3. Instalar dependencias:
    pip install -e .
  4. Construya el paquete:
    python -m build


Licencia : MIT
¡Disfrutenlo! 🎉

-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Este servidor proporciona un marco estandarizado que utiliza el Protocolo de Contexto de Modelo (MCP) para integrar y administrar sin problemas diversas herramientas, habilitando funciones como la automatización de Twitter, actualizaciones de criptomonedas e interacción con ElizaOS.

  1. Características principales
    1. Pila tecnológica 🛠️
      1. 🤔 ¿Qué es MCP?
    2. arquitectura mcp fuente
      1. Instalación 📦
        1. Instalar mediante PyPI
      2. Uso 💻
        1. Ejecutar localmente
        2. Ejecutar en Docker
      3. Integración de Twitter 🐦
        1. Variables de entorno de Docker para la integración de Twitter
        2. Ejecución de ProtoLinkAI con Docker
        3. Ejecución de ProtoLink con .env + scripts/run_agent.sh
        4. Resumen
      4. Integración con ElizaOS 🤖
        1. 1. Utilice directamente los agentes Eliza de ProtoLink
        2. 2. Ejecute Eliza Framework desde ProtoLinkai
      5. Tutorial: Cómo seleccionar herramientas específicas
        1. Ejemplo de integración: Configuración de escritorio de Claude
          1. Desarrollo 🛠️

            Related MCP Servers

            • A
              security
              A
              license
              A
              quality
              A Model Context Protocol (MCP) server for managing social media posts, currently supporting X (formerly Twitter).
              Last updated -
              3
              7
              JavaScript
              MIT License
            • -
              security
              A
              license
              -
              quality
              MCP Server simplifies the implementation of the Model Context Protocol by providing a user-friendly API to create custom tools and manage server workflows efficiently.
              Last updated -
              4
              3
              TypeScript
              MIT License
            • A
              security
              A
              license
              A
              quality
              A Model Context Protocol (MCP) server that provides tools for managing todo items, including creation, updating, completion, deletion, searching, and summarizing tasks.
              Last updated -
              10
              4
              TypeScript
              MIT License
            • A
              security
              F
              license
              A
              quality
              A Model Context Protocol (MCP) server that interacts with system APIs, allowing users to check connections, search employees, register breakfast, and update chemical information by shifts.
              Last updated -
              21
              37
              JavaScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/StevenROyola/ProtoLink'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server