@sanderkooger/mcp-server-ragdocs

Integrations

  • Used for code coverage reporting for the project, but not as a service the MCP integrates with functionally.

  • Mentioned in workflow badges and repository URLs, but not as a direct integration for the MCP server's functionality.

  • Provides local embeddings generation using Ollama's nomic-embed-text model as an alternative to cloud-based embedding services.

MCP-서버-ragdocs

벡터 검색을 통해 문서를 검색하고 처리할 수 있는 도구를 제공하는 MCP 서버 구현으로, AI 도우미가 관련 문서 컨텍스트로 응답을 보강할 수 있습니다.

목차

용법

RAG 문서화 도구는 다음을 위해 설계되었습니다.

  • 관련 문서로 AI 대응 강화
  • 문서 인식 AI 어시스턴트 구축
  • 개발자를 위한 컨텍스트 인식 도구 만들기
  • 의미론적 문서 검색 구현
  • 기존 지식 기반 증강

특징

  • 벡터 기반 문서 검색 및 검색
  • 다양한 문서 소스 지원
  • 로컬(Ollama) 임베딩 생성 또는 OPENAI 지원
  • 의미 검색 기능
  • 자동화된 문서 처리
  • LLM을 위한 실시간 컨텍스트 증강

구성

지엑스피1

Claude Desktop과 함께 사용

claude_desktop_config.json 에 다음을 추가하세요:

OpenAI 구성

{ "mcpServers": { "rag-docs-openai": { "command": "npx", "args": ["-y", "@sanderkooger/mcp-server-ragdocs"], "env": { "EMBEDDINGS_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-key-here", "QDRANT_URL": "your-qdrant-url", "QDRANT_API_KEY": "your-qdrant-key" } } } }

올라마 구성

{ "mcpServers": { "rag-docs-ollama": { "command": "npx", "args": ["-y", "@sanderkooger/mcp-server-ragdocs"], "env": { "EMBEDDINGS_PROVIDER": "ollama", "OLLAMA_BASE_URL": "http://localhost:11434", "QDRANT_URL": "your-qdrant-url", "QDRANT_API_KEY": "your-qdrant-key" } } } }

Ollama는 이 코드베이스에서 실행됩니다.

"ragdocs-mcp": { "command": "node", "args": [ "/home/sander/code/mcp-server-ragdocs/build/index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDINGS_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" }, "alwaysAllow": [ "run_queue", "list_queue", "list_sources", "search_documentation", "clear_queue", "remove_documentation", "extract_urls" ], "timeout": 3600 }

환경 변수 참조

변하기 쉬운필수기본비고
EMBEDDINGS_PROVIDER모두ollama"오페나이" 또는 "올라마"
OPENAI_API_KEY오픈AI-OpenAI 대시보드에서 가져오기
OLLAMA_BASE_URL올라마http://localhost:11434로컬 Ollama 서버 URL
QDRANT_URL모두http://localhost:6333Qdrant 엔드포인트 URL
QDRANT_API_KEY클라우드 Qdrant-Qdrant Cloud 콘솔에서

로컬 배포

저장소에는 로컬 개발을 위한 Docker Compose 구성이 포함되어 있습니다.

Docker Compose 다운로드

docker compose up -d

이렇게 시작됩니다:

  • 포트 6333의 Qdrant 벡터 데이터베이스
  • 포트 11434의 Ollama LLM 서비스

액세스 엔드포인트:

클라우드 배포

프로덕션 배포의 경우:

  1. 호스팅된 Qdrant Cloud 서비스를 사용하세요
  2. 다음 환경 변수를 설정하세요.
QDRANT_URL=your-cloud-cluster-url QDRANT_API_KEY=your-cloud-api-key

도구

검색_문서

자연어 쿼리를 사용하여 저장된 문서를 검색합니다. 맥락에 맞는 발췌문을 관련성 순으로 정렬하여 반환합니다.

입력:

  • query (문자열): 문서에서 검색할 텍스트입니다. 자연어 쿼리, 특정 용어 또는 코드 조각일 수 있습니다.
  • limit (숫자, 선택 사항): 반환할 최대 결과 수(1~20, 기본값: 5). limit가 높을수록 더 포괄적인 결과를 얻을 수 있지만 처리 시간이 더 오래 걸릴 수 있습니다.

목록_소스

현재 시스템에 저장된 모든 문서 소스를 나열합니다. 소스 URL, 제목, 최종 업데이트 시간을 포함한 모든 색인된 문서의 전체 목록을 반환합니다. 이를 통해 검색 가능한 문서를 파악하거나 특정 소스가 색인되었는지 확인할 수 있습니다.

추출_URL

주어진 웹 페이지에서 모든 URL을 추출하고 분석합니다. 이 도구는 지정된 웹 페이지를 크롤링하고 모든 하이퍼링크를 식별하며, 선택적으로 처리 대기열에 추가합니다.

입력:

  • url (문자열): 분석할 웹페이지의 전체 URL(프로토콜 포함, 예: https://). 페이지는 공개적으로 접근 가능해야 합니다.
  • add_to_queue (부울, 선택 사항): true인 경우, 추출된 URL을 나중에 인덱싱할 수 있도록 처리 대기열에 자동으로 추가합니다. 대규모 사이트에서는 과도한 대기열 생성을 방지하기 위해 주의해서 사용해야 합니다.

문서 제거

URL을 사용하여 시스템에서 특정 문서 소스를 제거합니다. 삭제는 영구적이며 향후 검색 결과에 영향을 미칩니다.

입력:

  • urls (string[]): 데이터베이스에서 제거할 URL 배열입니다. 각 URL은 문서가 추가될 때 사용된 URL과 정확히 일치해야 합니다.

리스트_

문서 처리 대기열에서 현재 대기 중인 모든 URL을 나열합니다. run_queue가 호출될 때 처리될 보류 중인 문서 소스를 표시합니다. 이 기능을 사용하여 대기열 상태를 모니터링하고, URL이 올바르게 추가되었는지 확인하거나, 처리 백로그를 확인하세요.

실행 대기열

현재 문서 대기열에 있는 모든 URL을 처리하고 인덱싱합니다. 각 URL은 적절한 오류 처리 및 재시도 로직을 통해 순차적으로 처리됩니다. 처리가 진행됨에 따라 진행 상황 업데이트가 제공됩니다. 장기 실행 작업은 대기열이 비어 있거나 복구할 수 없는 오류가 발생할 때까지 처리됩니다.

클리어_

문서 처리 대기열에서 보류 중인 모든 URL을 제거합니다. 대기열을 재설정하여 처음부터 시작하거나, 원치 않는 URL을 제거하거나, 보류 중인 처리를 취소할 때 이 기능을 사용합니다. 이 작업은 즉시 영구적으로 적용되므로, 나중에 처리하려면 URL을 다시 추가해야 합니다.

프로젝트 구조

이 패키지는 핵심 구성 요소와 MCP 프로토콜 핸들러가 명확하게 분리된 모듈형 아키텍처를 따릅니다. 자세한 구조 설명서 및 설계 결정 사항은 ARCHITECTURE.md를 참조하십시오.

도커 없이 Ollama 임베딩 사용

  1. Ollama 설치:
curl -fsSL https://ollama.com/install.sh | sh
  1. Nomic-embed-text 모델을 다운로드하세요:
ollama pull nomic-embed-text
  1. 설치 확인:
ollama list

특허

이 MCP 서버는 MIT 라이선스에 따라 라이선스가 부여됩니다. 즉, MIT 라이선스의 조건에 따라 소프트웨어를 자유롭게 사용, 수정 및 배포할 수 있습니다. 자세한 내용은 프로젝트 저장소의 LICENSE 파일을 참조하세요.

기여하다

기여를 환영합니다! 자세한 지침은 CONTRIBUTING.md를 참조해 주세요. 기본적인 사항은 다음과 같습니다.

  1. 저장소를 포크하세요
  2. 종속성 설치: npm install
  3. 기능 브랜치를 만듭니다: git checkout -b feat/your-feature
  4. npm run commit으로 변경 사항을 커밋하여 기존 커밋 과의 준수를 보장합니다.
  5. 포크로 밀어서 PR을 엽니다.

포크셉션 감사의 말

이 프로젝트는 hannesrudolph/mcp-ragdocs 포크를 기반으로 하며, 이 포크는 qpd-v/mcp-ragdocs 의 원본 프로젝트에서 포크되었습니다. 원본 프로젝트는 이 구현의 기반을 제공했습니다.

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

벡터 검색을 통해 문서를 검색하고 처리할 수 있는 도구를 제공하는 MCP 서버 구현으로, AI 도우미가 관련 문서 컨텍스트로 응답을 보강할 수 있습니다.

Ollama 또는 OpenAI를 사용하여 임베딩을 생성합니다.

Docker 파일 포함

  1. 목차
    1. 용법
      1. 특징
        1. 구성
          1. Claude Desktop과 함께 사용
          2. OpenAI 구성
          3. 올라마 구성
          4. Ollama는 이 코드베이스에서 실행됩니다.
        2. 환경 변수 참조
          1. 로컬 배포
          2. 클라우드 배포
        3. 도구
          1. 검색_문서
          2. 목록_소스
          3. 추출_URL
          4. 문서 제거
          5. 리스트_큐
          6. 실행 대기열
          7. 클리어_큐
        4. 프로젝트 구조
          1. 도커 없이 Ollama 임베딩 사용
            1. 특허
              1. 기여하다
                1. 포크셉션 감사의 말

                  Related MCP Servers

                  • A
                    security
                    A
                    license
                    A
                    quality
                    An MCP server implementation that provides tools for retrieving and processing documentation through vector search, enabling AI assistants to augment their responses with relevant documentation context
                    Last updated 5 months ago
                    7
                    62
                    81
                    TypeScript
                    MIT License
                  • -
                    security
                    F
                    license
                    -
                    quality
                    Enables AI assistants to enhance their responses with relevant documentation through a semantic vector search, offering tools for managing and processing documentation efficiently.
                    Last updated 3 months ago
                    62
                    13
                    TypeScript
                  • -
                    security
                    F
                    license
                    -
                    quality
                    An MCP server that integrates with Claude to provide smart documentation search capabilities across multiple AI/ML libraries, allowing users to retrieve and process technical information through natural language queries.
                    Last updated a month ago
                    Python
                  • -
                    security
                    A
                    license
                    -
                    quality
                    Provides tools for retrieving and processing documentation through vector search, enabling AI assistants to augment their responses with relevant documentation context.
                    Last updated 2 months ago
                    62
                    TypeScript
                    MIT License
                    • Apple

                  View all related MCP servers

                  ID: g4jkr5rjt5