RAG Documentation MCP Server

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Uses Ollama as the default embedding provider for local embeddings generation, supporting semantic documentation search and vector storage.

  • Provides OpenAI as a fallback embedding provider, using models like text-embedding-3-small for document embedding when Ollama is unavailable.

RAG 문서 MCP 서버

벡터 검색을 통해 문서를 검색하고 처리할 수 있는 도구를 제공하는 MCP 서버 구현으로, AI 도우미가 관련 문서 컨텍스트로 응답을 보강할 수 있습니다.

목차

특징

도구

  1. 검색_문서
    • 벡터 검색을 사용하여 문서를 검색하세요
    • 소스 정보가 포함된 관련 문서 청크를 반환합니다.
  2. 목록_소스
    • 사용 가능한 모든 문서 소스를 나열하세요
    • 각 소스에 대한 메타데이터를 제공합니다
  3. 추출_URL
    • 텍스트에서 URL을 추출하고 문서에 이미 있는지 확인합니다.
    • 중복 문서 작성을 방지하는 데 유용합니다.
  4. 문서 제거
    • 특정 소스에서 문서 제거
    • 오래되었거나 관련성이 없는 문서를 정리합니다.
  5. 리스트_
    • 처리 대기열의 모든 항목을 나열합니다.
    • 보류 중인 문서 처리 상태를 표시합니다.
  6. 실행 대기열
    • 대기열의 모든 항목을 처리합니다
    • 벡터 저장소에 자동으로 새 문서를 추가합니다.
  7. 클리어_
    • 처리 대기열에서 모든 항목을 지웁니다.
    • 시스템 재설정에 유용합니다
  8. 문서 추가
    • 처리 대기열에 새 문서 추가
    • 다양한 포맷과 소스를 지원합니다

빠른 시작

RAG 문서화 도구는 다음을 위해 설계되었습니다.

  • 관련 문서로 AI 대응 강화
  • 문서 인식 AI 어시스턴트 구축
  • 개발자를 위한 컨텍스트 인식 도구 만들기
  • 의미론적 문서 검색 구현
  • 기존 지식 기반 증강

Docker Compose 설정

이 프로젝트에는 간편한 컨테이너 배포를 위한 docker-compose.yml 파일이 포함되어 있습니다. 서비스를 시작하려면 다음 단계를 따르세요.

지엑스피1

서비스를 중지하려면:

docker-compose down

웹 인터페이스

이 시스템에는 Docker Compose 서비스를 시작한 후 액세스할 수 있는 웹 인터페이스가 포함되어 있습니다.

  1. 브라우저를 열고 http://localhost:3030 으로 이동하세요.
  2. 인터페이스는 다음을 제공합니다.
    • 실시간 대기열 모니터링
    • 문서 소스 관리
    • 쿼리 테스트를 위한 검색 인터페이스
    • 시스템 상태 및 건강 검진

구성

임베딩 구성

이 시스템은 로컬 임베딩 생성을 위한 기본 임베딩 제공자로 Ollama를 사용하며, OpenAI는 대체 옵션으로 제공됩니다. 이러한 설정은 클라우드 기반 대체를 통해 안정성을 유지하면서 로컬 처리를 우선시합니다.

환경 변수

  • EMBEDDING_PROVIDER : 기본 임베딩 공급자를 선택합니다('ollama' 또는 'openai', 기본값: 'ollama')
  • EMBEDDING_MODEL : 사용할 모델을 지정합니다(선택 사항)
    • OpenAI의 경우: 기본값은 'text-embedding-3-small'입니다.
    • Ollama의 경우: 기본값은 'nomic-embed-text'입니다.
  • OPENAI_API_KEY : OpenAI를 공급자로 사용할 때 필요합니다.
  • FALLBACK_PROVIDER : 선택적 백업 공급자('ollama' 또는 'openai')
  • FALLBACK_MODEL : 폴백 공급자에 대한 선택적 모델

클라인 구성

cline_mcp_settings.json 에 다음을 추가하세요:

{ "mcpServers": { "rag-docs": { "command": "node", "args": ["/path/to/your/mcp-ragdocs/build/index.js"], "env": { "EMBEDDING_PROVIDER": "ollama", // default "EMBEDDING_MODEL": "nomic-embed-text", // optional "OPENAI_API_KEY": "your-api-key-here", // required for fallback "FALLBACK_PROVIDER": "openai", // recommended for reliability "FALLBACK_MODEL": "nomic-embed-text", // optional "QDRANT_URL": "http://localhost:6333" }, "disabled": false, "autoApprove": [ "search_documentation", "list_sources", "extract_urls", "remove_documentation", "list_queue", "run_queue", "clear_queue", "add_documentation" ] } } }

클로드 데스크톱 구성

claude_desktop_config.json 에 다음을 추가하세요:

{ "mcpServers": { "rag-docs": { "command": "node", "args": ["/path/to/your/mcp-ragdocs/build/index.js"], "env": { "EMBEDDING_PROVIDER": "ollama", // default "EMBEDDING_MODEL": "nomic-embed-text", // optional "OPENAI_API_KEY": "your-api-key-here", // required for fallback "FALLBACK_PROVIDER": "openai", // recommended for reliability "FALLBACK_MODEL": "nomic-embed-text", // optional "QDRANT_URL": "http://localhost:6333" } } } }

기본 구성

시스템은 효율적인 로컬 임베딩 생성을 위해 기본적으로 Ollama를 사용합니다. 최적의 신뢰성을 위해 다음을 수행합니다.

  1. Ollama를 로컬에 설치하고 실행하세요
  2. OpenAI를 폴백으로 구성(권장):
    { // Ollama is used by default, no need to specify EMBEDDING_PROVIDER "EMBEDDING_MODEL": "nomic-embed-text", // optional "FALLBACK_PROVIDER": "openai", "FALLBACK_MODEL": "text-embedding-3-small", "OPENAI_API_KEY": "your-api-key-here" }

이 구성은 다음을 보장합니다.

  • Ollama를 사용한 빠르고 로컬한 임베딩 생성
  • Ollama가 실패하면 OpenAI로 자동 폴백
  • 필요하지 않은 경우 외부 API 호출은 허용되지 않습니다.

참고: 시스템은 공급자에 따라 적절한 벡터 차원을 자동으로 사용합니다.

  • Ollama(nomic-embed-text): 768차원
  • OpenAI(text-embedding-3-small): 1536차원

감사의 말

이 프로젝트는 qpd-v/mcp-ragdocs 의 포크로, 원래 qpd-v에서 개발되었습니다. 원래 프로젝트는 이 구현의 기반을 제공했습니다.

이 MCP 서버 초기 버전에 혁신적인 작업을 해주신 원 제작자 qpd-v에게 특별히 감사드립니다. 이 포크는 Rahul Retnan의 추가 기능과 개선 사항으로 더욱 강화되었습니다.

문제 해결

서버가 시작되지 않음(포트 충돌)

포트 충돌로 인해 MCP 서버가 시작되지 않으면 다음 단계를 따르세요.

  1. 포트 3030을 사용하여 프로세스를 식별하고 종료합니다.
npx kill-port 3030
  1. MCP 서버를 다시 시작하세요
  2. 문제가 지속되면 해당 포트를 사용하는 다른 프로세스를 확인하세요.
lsof -i :3030
  1. 필요한 경우 구성에서 기본 포트를 변경할 수도 있습니다.
-
security - not tested
F
license - not found
-
quality - not tested

의미적 벡터 검색을 통해 AI 도우미가 관련 문서로 응답을 강화할 수 있도록 하여 효율적으로 문서를 관리하고 처리할 수 있는 도구를 제공합니다.

  1. Table of Contents
    1. Features
      1. Tools
    2. Quick Start
      1. Docker Compose Setup
        1. Web Interface
          1. Configuration
            1. Embeddings Configuration
            2. Cline Configuration
            3. Claude Desktop Configuration
            4. Default Configuration
          2. Acknowledgments
            1. Troubleshooting
              1. Server Not Starting (Port Conflict)
            ID: co522bhy31