Integrations
Used for code coverage reporting for the project, but not as a service the MCP integrates with functionally.
Mentioned in workflow badges and repository URLs, but not as a direct integration for the MCP server's functionality.
Provides local embeddings generation using Ollama's nomic-embed-text model as an alternative to cloud-based embedding services.
MCP-서버-ragdocs
벡터 검색을 통해 문서를 검색하고 처리할 수 있는 도구를 제공하는 MCP 서버 구현으로, AI 도우미가 관련 문서 컨텍스트로 응답을 보강할 수 있습니다.
목차
용법
RAG 문서화 도구는 다음을 위해 설계되었습니다.
- 관련 문서로 AI 대응 강화
- 문서 인식 AI 어시스턴트 구축
- 개발자를 위한 컨텍스트 인식 도구 만들기
- 의미론적 문서 검색 구현
- 기존 지식 기반 증강
특징
- 벡터 기반 문서 검색 및 검색
- 다양한 문서 소스 지원
- 로컬(Ollama) 임베딩 생성 또는 OPENAI 지원
- 의미 검색 기능
- 자동화된 문서 처리
- LLM을 위한 실시간 컨텍스트 증강
구성
지엑스피1
Claude Desktop과 함께 사용
claude_desktop_config.json
에 다음을 추가하세요:
OpenAI 구성
올라마 구성
Ollama는 이 코드베이스에서 실행됩니다.
환경 변수 참조
변하기 쉬운 | 필수 | 기본 | 비고 |
---|---|---|---|
EMBEDDINGS_PROVIDER | 모두 | ollama | "오페나이" 또는 "올라마" |
OPENAI_API_KEY | 오픈AI | - | OpenAI 대시보드에서 가져오기 |
OLLAMA_BASE_URL | 올라마 | http://localhost:11434 | 로컬 Ollama 서버 URL |
QDRANT_URL | 모두 | http://localhost:6333 | Qdrant 엔드포인트 URL |
QDRANT_API_KEY | 클라우드 Qdrant | - | Qdrant Cloud 콘솔에서 |
로컬 배포
저장소에는 로컬 개발을 위한 Docker Compose 구성이 포함되어 있습니다.
이렇게 시작됩니다:
- 포트 6333의 Qdrant 벡터 데이터베이스
- 포트 11434의 Ollama LLM 서비스
액세스 엔드포인트:
- Qdrant: http://localhost:6333
- 올라마: http://localhost:11434
클라우드 배포
프로덕션 배포의 경우:
- 호스팅된 Qdrant Cloud 서비스를 사용하세요
- 다음 환경 변수를 설정하세요.
도구
검색_문서
자연어 쿼리를 사용하여 저장된 문서를 검색합니다. 맥락에 맞는 발췌문을 관련성 순으로 정렬하여 반환합니다.
입력:
query
(문자열): 문서에서 검색할 텍스트입니다. 자연어 쿼리, 특정 용어 또는 코드 조각일 수 있습니다.limit
(숫자, 선택 사항): 반환할 최대 결과 수(1~20, 기본값: 5). limit가 높을수록 더 포괄적인 결과를 얻을 수 있지만 처리 시간이 더 오래 걸릴 수 있습니다.
목록_소스
현재 시스템에 저장된 모든 문서 소스를 나열합니다. 소스 URL, 제목, 최종 업데이트 시간을 포함한 모든 색인된 문서의 전체 목록을 반환합니다. 이를 통해 검색 가능한 문서를 파악하거나 특정 소스가 색인되었는지 확인할 수 있습니다.
추출_URL
주어진 웹 페이지에서 모든 URL을 추출하고 분석합니다. 이 도구는 지정된 웹 페이지를 크롤링하고 모든 하이퍼링크를 식별하며, 선택적으로 처리 대기열에 추가합니다.
입력:
url
(문자열): 분석할 웹페이지의 전체 URL(프로토콜 포함, 예: https://). 페이지는 공개적으로 접근 가능해야 합니다.add_to_queue
(부울, 선택 사항): true인 경우, 추출된 URL을 나중에 인덱싱할 수 있도록 처리 대기열에 자동으로 추가합니다. 대규모 사이트에서는 과도한 대기열 생성을 방지하기 위해 주의해서 사용해야 합니다.
문서 제거
URL을 사용하여 시스템에서 특정 문서 소스를 제거합니다. 삭제는 영구적이며 향후 검색 결과에 영향을 미칩니다.
입력:
urls
(string[]): 데이터베이스에서 제거할 URL 배열입니다. 각 URL은 문서가 추가될 때 사용된 URL과 정확히 일치해야 합니다.
리스트_큐
문서 처리 대기열에서 현재 대기 중인 모든 URL을 나열합니다. run_queue가 호출될 때 처리될 보류 중인 문서 소스를 표시합니다. 이 기능을 사용하여 대기열 상태를 모니터링하고, URL이 올바르게 추가되었는지 확인하거나, 처리 백로그를 확인하세요.
실행 대기열
현재 문서 대기열에 있는 모든 URL을 처리하고 인덱싱합니다. 각 URL은 적절한 오류 처리 및 재시도 로직을 통해 순차적으로 처리됩니다. 처리가 진행됨에 따라 진행 상황 업데이트가 제공됩니다. 장기 실행 작업은 대기열이 비어 있거나 복구할 수 없는 오류가 발생할 때까지 처리됩니다.
클리어_큐
문서 처리 대기열에서 보류 중인 모든 URL을 제거합니다. 대기열을 재설정하여 처음부터 시작하거나, 원치 않는 URL을 제거하거나, 보류 중인 처리를 취소할 때 이 기능을 사용합니다. 이 작업은 즉시 영구적으로 적용되므로, 나중에 처리하려면 URL을 다시 추가해야 합니다.
프로젝트 구조
이 패키지는 핵심 구성 요소와 MCP 프로토콜 핸들러가 명확하게 분리된 모듈형 아키텍처를 따릅니다. 자세한 구조 설명서 및 설계 결정 사항은 ARCHITECTURE.md를 참조하십시오.
도커 없이 Ollama 임베딩 사용
- Ollama 설치:
- Nomic-embed-text 모델을 다운로드하세요:
- 설치 확인:
특허
이 MCP 서버는 MIT 라이선스에 따라 라이선스가 부여됩니다. 즉, MIT 라이선스의 조건에 따라 소프트웨어를 자유롭게 사용, 수정 및 배포할 수 있습니다. 자세한 내용은 프로젝트 저장소의 LICENSE 파일을 참조하세요.
기여하다
기여를 환영합니다! 자세한 지침은 CONTRIBUTING.md를 참조해 주세요. 기본적인 사항은 다음과 같습니다.
- 저장소를 포크하세요
- 종속성 설치:
npm install
- 기능 브랜치를 만듭니다:
git checkout -b feat/your-feature
- npm run commit으로 변경 사항을 커밋하여 기존 커밋 과의 준수를 보장합니다.
- 포크로 밀어서 PR을 엽니다.
포크셉션 감사의 말
이 프로젝트는 hannesrudolph/mcp-ragdocs 포크를 기반으로 하며, 이 포크는 qpd-v/mcp-ragdocs 의 원본 프로젝트에서 포크되었습니다. 원본 프로젝트는 이 구현의 기반을 제공했습니다.
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
벡터 검색을 통해 문서를 검색하고 처리할 수 있는 도구를 제공하는 MCP 서버 구현으로, AI 도우미가 관련 문서 컨텍스트로 응답을 보강할 수 있습니다.
Ollama 또는 OpenAI를 사용하여 임베딩을 생성합니다.
Docker 파일 포함
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityAn MCP server implementation that provides tools for retrieving and processing documentation through vector search, enabling AI assistants to augment their responses with relevant documentation contextLast updated 5 months ago76281TypeScriptMIT License
- -securityFlicense-qualityEnables AI assistants to enhance their responses with relevant documentation through a semantic vector search, offering tools for managing and processing documentation efficiently.Last updated 3 months ago6213TypeScript
- -securityFlicense-qualityAn MCP server that integrates with Claude to provide smart documentation search capabilities across multiple AI/ML libraries, allowing users to retrieve and process technical information through natural language queries.Last updated a month agoPython
- -securityAlicense-qualityProvides tools for retrieving and processing documentation through vector search, enabling AI assistants to augment their responses with relevant documentation context.Last updated 2 months ago62TypeScriptMIT License