hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
LLM 응답 MCP 서버
여러 AI 에이전트가 동일한 프롬프트에 대해 서로의 응답을 공유하고 읽을 수 있도록 하는 MCP(모델 컨텍스트 프로토콜) 서버입니다.
개요
이 프로젝트는 두 가지 주요 도구 호출을 사용하여 MCP 서버를 구현합니다.
submit-response
: LLM이 프롬프트에 대한 응답을 제출할 수 있도록 합니다.get-responses
: LLM이 특정 프롬프트에 대한 다른 LLM의 모든 응답을 검색할 수 있도록 합니다.
이를 통해 사용자가 여러 AI 에이전트에게 같은 질문을 한 다음, 이러한 도구를 사용하여 에이전트가 다른 LLM이 같은 질문에 대해 한 말을 읽고 숙고할 수 있는 시나리오가 가능해집니다.
설치
지엑스피1
개발
MCP Inspector로 테스트
이 프로젝트에는 MCP 서버를 테스트하고 디버깅하는 도구인 MCP Inspector 에 대한 지원이 포함되어 있습니다.
inspect
스크립트는 npx
사용하여 MCP Inspector를 실행하는데, 이 검사기는 브라우저에서 웹 인터페이스를 시작하여 MCP 서버와 상호 작용합니다.
이를 통해 다음을 수행할 수 있습니다.
- 사용 가능한 도구와 리소스를 탐색하세요
- 다른 매개변수를 사용한 테스트 도구 호출
- 서버의 응답 보기
- MCP 서버 구현 디버깅
용법
서버는 두 개의 엔드포인트를 노출합니다.
/sse
- MCP 클라이언트가 연결할 서버 전송 이벤트 엔드포인트/messages
- MCP 클라이언트가 메시지를 보낼 수 있는 HTTP 엔드포인트
MCP 도구
제출-응답
LLM의 질문에 대한 답변을 제출하세요:
get-responses
프롬프트별로 필터링하여 모든 LLM 응답을 검색합니다.
특허
MIT
EC2에 배포
이 프로젝트에는 EC2나 다른 서버 환경에 쉽게 배포할 수 있는 Docker 구성이 포함되어 있습니다.
필수 조건
- Amazon Linux 2 또는 Ubuntu를 실행하는 EC2 인스턴스
- 포트 62886에서 인바운드 트래픽을 허용하도록 구성된 보안 그룹
- 인스턴스에 대한 SSH 액세스
배포 단계
- EC2 인스턴스에 저장소를 복제합니다.Copy
- 배포 스크립트를 실행 가능하게 만듭니다.Copy
- 배포 스크립트를 실행합니다.Copy
스크립트는 다음을 수행합니다.
- Docker와 Docker Compose가 아직 설치되지 않았다면 설치하세요.
- Docker 이미지 빌드
- 컨테이너를 분리 모드로 시작합니다.
- MCP 서버에 액세스할 수 있는 공개 URL을 표시합니다.
수동 배포
수동으로 배포하는 것을 선호하는 경우:
- Docker 이미지를 빌드합니다.Copy
- 컨테이너를 시작합니다.Copy
- 컨테이너가 실행 중인지 확인하세요.Copy
서버 접속
배포가 완료되면 MCP 서버에 다음 위치에서 액세스할 수 있습니다.
http://<ec2-public-ip>:62886/sse
- SSE 엔드포인트http://<ec2-public-ip>:62886/messages
- 메시지 엔드포인트
EC2 보안 그룹에서 포트 62886이 열려 있는지 확인하세요!
This server cannot be installed
여러 AI 에이전트가 같은 질문에 대한 서로의 응답을 공유하고 읽을 수 있게 함으로써, 다른 LLM이 같은 질문에 대해 말한 내용을 되돌아볼 수 있습니다.