ProtoLinkAI MCP Server
프로토링크AI 🚀
ProtoLink AI는 다양한 도구를 통합적으로 구현하고 관리하기 위한 표준화된 도구 래핑 프레임워크 입니다. 개발자가 도구 기반 사용 사례를 신속하게 통합하고 출시할 수 있도록 설계되었습니다.
주요 특징
🔧 표준화된 래핑 : MCP 프로토콜을 사용하여 도구를 빌드하기 위한 추상화 계층을 제공합니다.
🚀 유연한 사용 사례 : 특정 요구 사항에 맞게 도구를 쉽게 추가하거나 제거할 수 있습니다.
✨ 즉시 사용 가능한 도구 : 일반적인 시나리오에 대한 사전 구축된 도구가 포함되어 있습니다.
🐦 트위터 관리 : 트위터 상호작용을 자동화하고, 답장하고, 관리합니다.
💸 암호화폐: 최신 암호화폐 가격을 알아보세요.
🤖 ElizaOS 통합: ElizaOS와 원활하게 연결하고 상호 작용하여 자동화를 강화합니다.
🕑 시간 유틸리티
☁️ 날씨 정보(API)
📚 사전 검색
🧮 수학 표현식을 위한 계산기
💵 환전(API)
📈 주식 데이터: 실시간 및 과거 주식 시장 정보에 접근하세요.
[WIP] 📰 뉴스: 최신 뉴스 헤드라인을 검색합니다.
기술 스택 🛠️
Python : 핵심 프로그래밍 언어
MCP 프레임워크 : 통신 프로토콜
Docker : 컨테이너화
🤔 MCP란 무엇인가요?
모델 컨텍스트 프로토콜( MCP ) 은 AI 모델과 시스템 간의 컨텍스트 공유 및 관리를 위한 최첨단 표준입니다. AI 에이전트가 원활하게 상호 작용하는 데 사용하는 언어 라고 생각하면 됩니다. 🧠✨
MCP가 중요한 이유는 다음과 같습니다.
🧩 표준화 : MCP는 모델 간에 컨텍스트를 공유하는 방법을 정의하여 상호 운용성을 지원합니다.
⚡ 확장성 : 높은 처리량으로 대규모 AI 시스템을 처리하도록 구축되었습니다.
🔒 보안 : 강력한 인증 및 세분화된 액세스 제어.
🌐 유연성 : 다양한 시스템과 AI 아키텍처에서 작동합니다.
원천
Related MCP server: MCP Server
설치 📦
PyPI를 통해 설치
지엑스피1
사용법 💻
로컬로 실행
ProtoLinkai --local-timezone "America/New_York"Docker에서 실행
Docker 이미지를 빌드합니다:
docker build -t ProtoLinkai .컨테이너를 실행합니다:
docker run -i --rm ProtoLinkai
트위터 통합 🐦
MProtoLinkAI는 강력한 트위터 통합 기능을 제공하여 트윗, 답글 및 트위터 상호작용 관리를 자동화할 수 있습니다. 이 섹션에서는 Docker 및 .env + scripts/run_agent.sh 를 통해 트위터 통합을 구성하고 사용하는 방법에 대한 자세한 지침을 제공합니다.
Twitter 통합을 위한 Docker 환경 변수
Docker에서 ProtoLinkAI를 실행할 때는 Twitter 통합을 위한 환경 변수를 구성하는 것이 필수적입니다. 이러한 변수는 두 가지 범주로 나뉩니다.
1. 에이전트 노드 클라이언트 자격 증명
이러한 자격 증명은 에이전트 내의 Node.js 클라이언트 에서 Twitter 상호작용을 관리하는 데 사용됩니다.
ENV TWITTER_USERNAME=
ENV TWITTER_PASSWORD=
ENV TWITTER_EMAIL=2. Tweepy(Twitter API v2) 자격 증명
이러한 자격 증명은 Tweepy 가 Twitter API v2와 상호 작용하는 데 사용됩니다.
ENV TWITTER_API_KEY=
ENV TWITTER_API_SECRET=
ENV TWITTER_ACCESS_TOKEN=
ENV TWITTER_ACCESS_SECRET=
ENV TWITTER_CLIENT_ID=
ENV TWITTER_CLIENT_SECRET=
ENV TWITTER_BEARER_TOKEN=Docker로 ProtoLinkAI 실행
Docker 이미지를 빌드합니다.
docker build -t ProtoLinkai .컨테이너를 실행합니다.
docker run -i --rm ProtoLinkai
.env + scripts/run_agent.sh 사용하여 ProtoLink 실행
환경 변수 설정
프로젝트의 루트 디렉토리에 .env 파일을 만들고 다음 환경 변수를 추가합니다.
ANTHROPIC_API_KEY=your_anthropic_api_key
ELIZA_PATH=/path/to/eliza
TWITTER_USERNAME=your_twitter_username
TWITTER_EMAIL=your_twitter_email
TWITTER_PASSWORD=your_twitter_password
PERSONALITY_CONFIG=/path/to/personality_config.json
RUN_AGENT=True
# Tweepy (Twitter API v2) Credentials
TWITTER_API_KEY=your_twitter_api_key
TWITTER_API_SECRET=your_twitter_api_secret
TWITTER_ACCESS_TOKEN=your_twitter_access_token
TWITTER_ACCESS_SECRET=your_twitter_access_secret
TWITTER_CLIENT_ID=your_twitter_client_id
TWITTER_CLIENT_SECRET=your_twitter_client_secret
TWITTER_BEARER_TOKEN=your_twitter_bearer_token에이전트 실행
스크립트를 실행 가능하게 만드세요:
chmod +x scripts/run_agent.sh에이전트를 실행합니다.
bash scripts/run_agent.sh
요약
Docker를 사용하거나 .env 파일에 환경 변수를 설정하고 scripts/run_agent.sh 스크립트를 실행하여 Twitter 통합을 통해 ProtoLink를 실행하도록 구성할 수 있습니다.
이러한 유연성 덕분에 배포 환경에 가장 적합한 방법을 선택할 수 있습니다.
ElizaOS 통합 🤖
1. ProtoLink의 Eliza Agents를 직접 사용하세요
이 접근 방식을 사용하면 Eliza Framework를 백그라운드에서 실행하지 않고도 Eliza Agents를 사용할 수 있습니다. ProtoLink에 Eliza 기능을 직접 내장하여 설정을 간소화합니다.
단계:
Eliza MCP 에이전트를 사용하도록 ProtoLink 구성: Python 코드에서
MultiToolAgent에 Eliza MCP 에이전트를 추가합니다.from ProtoLink.core.multi_tool_agent import MultiToolAgent from ProtoLink.tools.eliza_mcp_agent import eliza_mcp_agent multi_tool_agent = MultiToolAgent([ # ... other agents eliza_mcp_agent ])
장점:
간소화된 설정: 별도의 백그라운드 프로세스를 관리할 필요가 없습니다.
더욱 쉬운 모니터링: 모든 기능이 MCPAgentAI에 캡슐화되어 있습니다.
주요 특징: MCPAgentAI가 다양한 도구를 원활하게 통합하는 데 있어 유연성을 강조합니다.
2. ProtoLinkai에서 Eliza Framework 실행
이 방법은 ProtoLinkAI와 함께 Eliza Framework를 별도의 백그라운드 프로세스로 실행하는 것을 포함합니다.
단계:
Eliza Framework 시작:
bash src/ProtoLinkai/tools/eliza/scripts/run.shEliza 프로세스 모니터링:
bash src/ProtoLinkai/tools/eliza/scripts/monitor.shMCPAgentAI를 구성하여 Eliza Agent를 사용하려면 Python 코드에서
MultiToolAgent에 Eliza Agent를 추가하세요.from ProtoLink.core.multi_tool_agent import MultiToolAgent from ProtoLink.tools.eliza_agent import eliza_agent multi_tool_agent = MultiToolAgent([ # ... other agents eliza_agent ])
튜토리얼: 특정 도구 선택
서버의 에이전트 구성을 수정하거나 server.py 파일을 업데이트하여 원하는 에이전트만 로드하도록 하면 ProtoLink가 특정 도구만 실행하도록 구성할 수 있습니다. 예:
from ProtoLinkai.tools.time_agent import TimeAgent
from ProtoLinkai.tools.weather_agent import WeatherAgent
from ProtoLinkai.core.multi_tool_agent import MultiToolAgent
multi_tool_agent = MultiToolAgent([
TimeAgent(),
WeatherAgent()
])
This setup will only enable **Time** and **Weather** tools.통합 예: Claude Desktop 구성
다음 구성( claude_desktop_config.json )을 사용하여 ProtoLinkAI를 Claude Desktop과 통합할 수 있습니다. 로컬 ElizaOS 리포는 선택적 인수 입니다.
{
"mcpServers": {
"mcpagentai": {
"command": "docker",
"args": ["run", "-i", "-v", "/path/to/local/eliza:/app/eliza", "--rm", "mcpagentai"]
}
}
}개발 🛠️
이 저장소를 복제하세요:
git clone https://github.com/StevenROyola/ProtoLink.git cd mcpagentai(선택 사항) 가상 환경을 만듭니다.
python3 -m venv .venv source .venv/bin/activate종속성 설치:
pip install -e .패키지를 빌드하세요:
python -m build
라이센스 : MIT
즐기세요! 🎉
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/StevenROyola/ProtoLink'
If you have feedback or need assistance with the MCP directory API, please join our Discord server