ProtoLinkAI MCP Server

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Supports configuration through .env files for setting environment variables

  • Provides containerization support for running the ProtoLinkAI server

  • References GitHub repositories, particularly for ElizaOS integration

ProtoLinkAI 🚀

ProtoLink AI es un marco estandarizado de herramientas que permite implementar y gestionar diversas herramientas de forma unificada. Está diseñado para ayudar a los desarrolladores a integrar y lanzar rápidamente casos de uso basados en herramientas.

Características principales

  • 🔧 Envoltura estandarizada : proporciona una capa de abstracción para crear herramientas utilizando el protocolo MCP.
  • 🚀 Casos de uso flexibles : agregue o elimine herramientas fácilmente para adaptarse a sus requisitos específicos.
  • Herramientas listas para usar : incluye herramientas prediseñadas para escenarios comunes:
    • 🐦 Gestión de Twitter : automatiza la publicación de tweets, las respuestas y la gestión de las interacciones de Twitter.
    • 💸 Criptomonedas: Obtenga los últimos precios de criptomonedas.
    • 🤖 Integración con ElizaOS : conéctese e interactúe sin problemas con ElizaOS para una mejor automatización.
    • 🕑 Utilidades del tiempo
    • ☁️ Información meteorológica (API)
    • 📚 Búsquedas en el diccionario
    • 🧮 Calculadora para expresiones matemáticas
    • 💵 Cambio de divisas (API)
    • 📈 Datos bursátiles: acceda a información histórica y en tiempo real del mercado de valores.
    • [WIP] 📰 Noticias: Recupera los titulares de las noticias más recientes.

Pila tecnológica 🛠️

  • Python : lenguaje de programación central
  • Marco MCP : Protocolo de comunicación
  • Docker : Contenerización

🤔 ¿Qué es MCP?

El Protocolo de Contexto de Modelo ( MCP ) es un estándar de vanguardia para compartir y gestionar el contexto entre modelos y sistemas de IA. Considérelo el lenguaje que utilizan los agentes de IA para interactuar fluidamente. 🧠✨

He aquí por qué es importante el MCP :

  • 🧩 Estandarización : MCP define cómo se puede compartir el contexto entre los modelos, lo que permite la interoperabilidad .
  • Escalabilidad : está diseñado para manejar sistemas de IA a gran escala con alto rendimiento.
  • 🔒 Seguridad : Autenticación robusta y control de acceso detallado.
  • 🌐 Flexibilidad : funciona en diversos sistemas y arquitecturas de IA.

fuente

Instalación 📦

Instalar mediante PyPI

pip install ProtoLinkai

Uso 💻

Ejecutar localmente

ProtoLinkai --local-timezone "America/New_York"

Ejecutar en Docker

  1. Construya la imagen de Docker: docker build -t ProtoLinkai .
  2. Ejecute el contenedor: docker run -i --rm ProtoLinkai

Integración de Twitter 🐦

MProtoLinkAI ofrece una sólida integración con Twitter, lo que permite automatizar la publicación de tweets, las respuestas y la gestión de las interacciones en Twitter. Esta sección proporciona instrucciones detalladas sobre la configuración y el uso de la integración con Twitter, tanto mediante Docker como mediante .env + scripts/run_agent.sh .

Variables de entorno de Docker para la integración de Twitter

Al ejecutar ProtoLinkAI en Docker, es fundamental configurar las variables de entorno para la integración con Twitter. Estas variables se dividen en dos categorías:

1. Credenciales del cliente del nodo del agente

El cliente Node.js utiliza estas credenciales dentro del agente para administrar las interacciones de Twitter.

ENV TWITTER_USERNAME= ENV TWITTER_PASSWORD= ENV TWITTER_EMAIL=

2. Credenciales de Tweepy (Twitter API v2)

Tweepy utiliza estas credenciales para interactuar con la API v2 de Twitter.

ENV TWITTER_API_KEY= ENV TWITTER_API_SECRET= ENV TWITTER_ACCESS_TOKEN= ENV TWITTER_ACCESS_SECRET= ENV TWITTER_CLIENT_ID= ENV TWITTER_CLIENT_SECRET= ENV TWITTER_BEARER_TOKEN=

Ejecución de ProtoLinkAI con Docker

  1. Construya la imagen de Docker:
    docker build -t ProtoLinkai .
  2. Ejecute el contenedor:
    docker run -i --rm ProtoLinkai

Configuración de variables de entorno

Cree un archivo .env en el directorio raíz de su proyecto y agregue las siguientes variables de entorno:

ANTHROPIC_API_KEY=your_anthropic_api_key ELIZA_PATH=/path/to/eliza TWITTER_USERNAME=your_twitter_username TWITTER_EMAIL=your_twitter_email TWITTER_PASSWORD=your_twitter_password PERSONALITY_CONFIG=/path/to/personality_config.json RUN_AGENT=True # Tweepy (Twitter API v2) Credentials TWITTER_API_KEY=your_twitter_api_key TWITTER_API_SECRET=your_twitter_api_secret TWITTER_ACCESS_TOKEN=your_twitter_access_token TWITTER_ACCESS_SECRET=your_twitter_access_secret TWITTER_CLIENT_ID=your_twitter_client_id TWITTER_CLIENT_SECRET=your_twitter_client_secret TWITTER_BEARER_TOKEN=your_twitter_bearer_token

Ejecución del agente

  1. Hacer que el script sea ejecutable:
    chmod +x scripts/run_agent.sh
  2. Ejecute el agente:
    bash scripts/run_agent.sh

Resumen

Puede configurar ProtoLink para que se ejecute con la integración de Twitter utilizando Docker o configurando variables de entorno en un archivo .env y ejecutando el script scripts/run_agent.sh .

Esta flexibilidad le permite elegir el método que mejor se adapte a su entorno de implementación.


Integración con ElizaOS 🤖

Este enfoque permite usar los Agentes de Eliza sin ejecutar Eliza Framework en segundo plano. Simplifica la configuración al integrar la funcionalidad de Eliza directamente en ProtoLink.

Pasos:

  1. Configurar ProtoLink para usar Eliza MCP Agent: En su código Python, agregue Eliza MCP Agent a MultiToolAgent :
    from ProtoLink.core.multi_tool_agent import MultiToolAgent from ProtoLink.tools.eliza_mcp_agent import eliza_mcp_agent multi_tool_agent = MultiToolAgent([ # ... other agents eliza_mcp_agent ])

Ventajas:

  • Configuración simplificada: no es necesario administrar procesos en segundo plano separados.
  • Supervisión más sencilla: todas las funcionalidades están encapsuladas dentro de MCPAgentAI.
  • Característica destacada: enfatiza la flexibilidad de MCPAgentAI para integrar varias herramientas sin problemas.

2. Ejecute Eliza Framework desde ProtoLinkai

Este método implica ejecutar Eliza Framework como un proceso en segundo plano separado junto con ProtoLinkAI.

Pasos:

  1. Iniciar Eliza Framework: bash src/ProtoLinkai/tools/eliza/scripts/run.sh
  2. Monitorear procesos de Eliza: bash src/ProtoLinkai/tools/eliza/scripts/monitor.sh
  3. Configurar MCPAgentAI para usar Eliza Agent: En su código Python, agregue Eliza Agent a MultiToolAgent :
    from ProtoLink.core.multi_tool_agent import MultiToolAgent from ProtoLink.tools.eliza_agent import eliza_agent multi_tool_agent = MultiToolAgent([ # ... other agents eliza_agent ])

Tutorial: Cómo seleccionar herramientas específicas

Puede configurar ProtoLink para que ejecute solo ciertas herramientas modificando la configuración del agente en su servidor o actualizando el archivo server.py para que cargue únicamente los agentes deseados. Por ejemplo:

from ProtoLinkai.tools.time_agent import TimeAgent from ProtoLinkai.tools.weather_agent import WeatherAgent from ProtoLinkai.core.multi_tool_agent import MultiToolAgent multi_tool_agent = MultiToolAgent([ TimeAgent(), WeatherAgent() ]) This setup will only enable **Time** and **Weather** tools.

Ejemplo de integración: Configuración de escritorio de Claude

Puede integrar ProtoLinkAI con Claude Desktop usando la siguiente configuración ( claude_desktop_config.json ), tenga en cuenta que el repositorio local de ElizaOS es un argumento opcional:

{ "mcpServers": { "mcpagentai": { "command": "docker", "args": ["run", "-i", "-v", "/path/to/local/eliza:/app/eliza", "--rm", "mcpagentai"] } } }

Desarrollo 🛠️

  1. Clonar este repositorio:
    git clone https://github.com/StevenROyola/ProtoLink.git cd mcpagentai
  2. (Opcional) Crear un entorno virtual:
    python3 -m venv .venv source .venv/bin/activate
  3. Instalar dependencias:
    pip install -e .
  4. Construya el paquete:
    python -m build


Licencia : MIT
¡Disfrutenlo! 🎉

-
security - not tested
F
license - not found
-
quality - not tested

Este servidor proporciona un marco estandarizado que utiliza el Protocolo de Contexto de Modelo (MCP) para integrar y administrar sin problemas diversas herramientas, habilitando funciones como la automatización de Twitter, actualizaciones de criptomonedas e interacción con ElizaOS.

  1. Key Features
    1. Tech Stack 🛠️
      1. 🤔 What is MCP?
    2. mcp_architecture source
      1. Installation 📦
        1. Install via PyPI
      2. Usage 💻
        1. Run Locally
        2. Run in Docker
      3. Twitter Integration 🐦
        1. Docker Environment Variables for Twitter Integration
        2. Running ProtoLinkAI with Docker
        3. Running ProtoLink with .env + scripts/run_agent.sh
        4. Summary
      4. ElizaOS Integration 🤖
        1. 1. Directly Use Eliza Agents from ProtoLink
        2. 2. Run Eliza Framework from ProtoLinkai
      5. Tutorial: Selecting Specific Tools
        1. Integration Example: Claude Desktop Configuration
          1. Development 🛠️
            ID: w62mk3d1mn