hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
RAG 문서 MCP 서버
벡터 검색을 통해 문서를 검색하고 처리할 수 있는 도구를 제공하는 MCP 서버 구현으로, AI 도우미가 관련 문서 컨텍스트로 응답을 보강할 수 있습니다.
목차
특징
도구
- 검색_문서
- 벡터 검색을 사용하여 문서를 검색하세요
- 소스 정보가 포함된 관련 문서 청크를 반환합니다.
- 목록_소스
- 사용 가능한 모든 문서 소스를 나열하세요
- 각 소스에 대한 메타데이터를 제공합니다
- 추출_URL
- 텍스트에서 URL을 추출하고 문서에 이미 있는지 확인합니다.
- 중복 문서 작성을 방지하는 데 유용합니다.
- 문서 제거
- 특정 소스에서 문서 제거
- 오래되었거나 관련성이 없는 문서를 정리합니다.
- 리스트_큐
- 처리 대기열의 모든 항목을 나열합니다.
- 보류 중인 문서 처리 상태를 표시합니다.
- 실행 대기열
- 대기열의 모든 항목을 처리합니다
- 벡터 저장소에 자동으로 새 문서를 추가합니다.
- 클리어_큐
- 처리 대기열에서 모든 항목을 지웁니다.
- 시스템 재설정에 유용합니다
- 문서 추가
- 처리 대기열에 새 문서 추가
- 다양한 포맷과 소스를 지원합니다
빠른 시작
RAG 문서화 도구는 다음을 위해 설계되었습니다.
- 관련 문서로 AI 대응 강화
- 문서 인식 AI 어시스턴트 구축
- 개발자를 위한 컨텍스트 인식 도구 만들기
- 의미론적 문서 검색 구현
- 기존 지식 기반 증강
Docker Compose 설정
이 프로젝트에는 간편한 컨테이너 배포를 위한 docker-compose.yml
파일이 포함되어 있습니다. 서비스를 시작하려면 다음 단계를 따르세요.
지엑스피1
서비스를 중지하려면:
웹 인터페이스
이 시스템에는 Docker Compose 서비스를 시작한 후 액세스할 수 있는 웹 인터페이스가 포함되어 있습니다.
- 브라우저를 열고
http://localhost:3030
으로 이동하세요. - 인터페이스는 다음을 제공합니다.
- 실시간 대기열 모니터링
- 문서 소스 관리
- 쿼리 테스트를 위한 검색 인터페이스
- 시스템 상태 및 건강 검진
구성
임베딩 구성
이 시스템은 로컬 임베딩 생성을 위한 기본 임베딩 제공자로 Ollama를 사용하며, OpenAI는 대체 옵션으로 제공됩니다. 이러한 설정은 클라우드 기반 대체를 통해 안정성을 유지하면서 로컬 처리를 우선시합니다.
환경 변수
EMBEDDING_PROVIDER
: 기본 임베딩 공급자를 선택합니다('ollama' 또는 'openai', 기본값: 'ollama')EMBEDDING_MODEL
: 사용할 모델을 지정합니다(선택 사항)- OpenAI의 경우: 기본값은 'text-embedding-3-small'입니다.
- Ollama의 경우: 기본값은 'nomic-embed-text'입니다.
OPENAI_API_KEY
: OpenAI를 공급자로 사용할 때 필요합니다.FALLBACK_PROVIDER
: 선택적 백업 공급자('ollama' 또는 'openai')FALLBACK_MODEL
: 폴백 공급자에 대한 선택적 모델
클라인 구성
cline_mcp_settings.json
에 다음을 추가하세요:
클로드 데스크톱 구성
claude_desktop_config.json
에 다음을 추가하세요:
기본 구성
시스템은 효율적인 로컬 임베딩 생성을 위해 기본적으로 Ollama를 사용합니다. 최적의 신뢰성을 위해 다음을 수행합니다.
- Ollama를 로컬에 설치하고 실행하세요
- OpenAI를 폴백으로 구성(권장):Copy
이 구성은 다음을 보장합니다.
- Ollama를 사용한 빠르고 로컬한 임베딩 생성
- Ollama가 실패하면 OpenAI로 자동 폴백
- 필요하지 않은 경우 외부 API 호출은 허용되지 않습니다.
참고: 시스템은 공급자에 따라 적절한 벡터 차원을 자동으로 사용합니다.
- Ollama(nomic-embed-text): 768차원
- OpenAI(text-embedding-3-small): 1536차원
감사의 말
이 프로젝트는 qpd-v/mcp-ragdocs 의 포크로, 원래 qpd-v에서 개발되었습니다. 원래 프로젝트는 이 구현의 기반을 제공했습니다.
이 MCP 서버 초기 버전에 혁신적인 작업을 해주신 원 제작자 qpd-v에게 특별히 감사드립니다. 이 포크는 Rahul Retnan의 추가 기능과 개선 사항으로 더욱 강화되었습니다.
문제 해결
서버가 시작되지 않음(포트 충돌)
포트 충돌로 인해 MCP 서버가 시작되지 않으면 다음 단계를 따르세요.
- 포트 3030을 사용하여 프로세스를 식별하고 종료합니다.
- MCP 서버를 다시 시작하세요
- 문제가 지속되면 해당 포트를 사용하는 다른 프로세스를 확인하세요.
- 필요한 경우 구성에서 기본 포트를 변경할 수도 있습니다.
This server cannot be installed
의미적 벡터 검색을 통해 AI 도우미가 관련 문서로 응답을 강화할 수 있도록 하여 효율적으로 문서를 관리하고 처리할 수 있는 도구를 제공합니다.
- Table of Contents
- Features
- Quick Start
- Docker Compose Setup
- Web Interface
- Configuration
- Acknowledgments
- Troubleshooting