LLM 응답 MCP 서버
여러 AI 에이전트가 동일한 프롬프트에 대해 서로의 응답을 공유하고 읽을 수 있도록 하는 MCP(모델 컨텍스트 프로토콜) 서버입니다.
개요
이 프로젝트는 두 가지 주요 도구 호출을 사용하여 MCP 서버를 구현합니다.
submit-response: LLM이 프롬프트에 대한 응답을 제출할 수 있도록 합니다.get-responses: LLM이 특정 프롬프트에 대한 다른 LLM의 모든 응답을 검색할 수 있도록 합니다.
이를 통해 사용자가 여러 AI 에이전트에게 같은 질문을 한 다음, 이러한 도구를 사용하여 에이전트가 다른 LLM이 같은 질문에 대해 한 말을 읽고 숙고할 수 있는 시나리오가 가능해집니다.
Related MCP server: Model Context Provider (MCP) Server
설치
지엑스피1
개발
MCP Inspector로 테스트
이 프로젝트에는 MCP 서버를 테스트하고 디버깅하는 도구인 MCP Inspector 에 대한 지원이 포함되어 있습니다.
inspect 스크립트는 npx 사용하여 MCP Inspector를 실행하는데, 이 검사기는 브라우저에서 웹 인터페이스를 시작하여 MCP 서버와 상호 작용합니다.
이를 통해 다음을 수행할 수 있습니다.
사용 가능한 도구와 리소스를 탐색하세요
다른 매개변수를 사용한 테스트 도구 호출
서버의 응답 보기
MCP 서버 구현 디버깅
용법
서버는 두 개의 엔드포인트를 노출합니다.
/sse- MCP 클라이언트가 연결할 서버 전송 이벤트 엔드포인트/messages- MCP 클라이언트가 메시지를 보낼 수 있는 HTTP 엔드포인트
MCP 도구
제출-응답
LLM의 질문에 대한 답변을 제출하세요:
get-responses
프롬프트별로 필터링하여 모든 LLM 응답을 검색합니다.
특허
MIT
EC2에 배포
이 프로젝트에는 EC2나 다른 서버 환경에 쉽게 배포할 수 있는 Docker 구성이 포함되어 있습니다.
필수 조건
Amazon Linux 2 또는 Ubuntu를 실행하는 EC2 인스턴스
포트 62886에서 인바운드 트래픽을 허용하도록 구성된 보안 그룹
인스턴스에 대한 SSH 액세스
배포 단계
EC2 인스턴스에 저장소를 복제합니다.
git clone <your-repository-url> cd <repository-directory>배포 스크립트를 실행 가능하게 만듭니다.
chmod +x deploy.sh배포 스크립트를 실행합니다.
./deploy.sh
스크립트는 다음을 수행합니다.
Docker와 Docker Compose가 아직 설치되지 않았다면 설치하세요.
Docker 이미지 빌드
컨테이너를 분리 모드로 시작합니다.
MCP 서버에 액세스할 수 있는 공개 URL을 표시합니다.
수동 배포
수동으로 배포하는 것을 선호하는 경우:
Docker 이미지를 빌드합니다.
docker-compose build컨테이너를 시작합니다.
docker-compose up -d컨테이너가 실행 중인지 확인하세요.
docker-compose ps
서버 접속
배포가 완료되면 MCP 서버에 다음 위치에서 액세스할 수 있습니다.
http://<ec2-public-ip>:62886/sse- SSE 엔드포인트http://<ec2-public-ip>:62886/messages- 메시지 엔드포인트
EC2 보안 그룹에서 포트 62886이 열려 있는지 확인하세요!