Skip to main content
Glama

RAG-MCP 서버

RISC Zero의 Bonsai 문서로 테스트하도록 설계된, 모델 제어 프로토콜(MCP)을 사용하는 범용 검색 증강 생성(RAG) 서버입니다.

개요

이 프로젝트는 다음을 수행하는 RAG 서버를 구현합니다.

  • 표준화된 통신을 위해 MCP(Model Control Protocol)를 사용합니다.

  • 문서 쿼리를 위한 RAG(검색 증강 생성) 워크플로 구현

  • RISC Zero의 Bonsai 문서로 테스트할 수 있습니다.

  • Ollama를 통한 로컬 LLM 통합 지원

Related MCP server: Shared Knowledge MCP Server

특징

  • 문서 수집 및 인덱싱

  • 의미 검색 기능

  • 로컬 LLM 통합

  • MCP 프로토콜 준수

  • RISC Zero Bonsai 문서 지원

필수 조건

  • 파이썬 3.12+

  • Ollama(지역 LLM 지원용)

  • 시(의존성 관리를 위한)

설치

  1. Python 종속성 설치:

지엑스피1

  1. Ollama를 설치하고 시작하세요:

# Install Ollama brew install ollama # for macOS # or curl -fsSL https://ollama.com/install.sh | sh # for Linux # Start Ollama service ollama serve
  1. 필요한 모델을 가져옵니다.

ollama pull llama2

용법

  1. MCP 서버를 시작합니다.

poetry run python mcp_server.py
  1. 서버는 다음을 수행합니다.

    • LLM 및 임베딩 모델 초기화

    • 데이터 디렉토리에서 문서 수집

    • RAG 워크플로를 사용하여 쿼리 처리

  2. RISC Zero Bonsai 문서로 테스트:

    • RISC Zero Bonsai 문서를 data/ 디렉토리에 넣으세요.

    • 서버에 Bonsai 기능 및 구현에 대한 질의를 보내세요

프로젝트 구조

  • mcp_server.py : 메인 서버 구현

  • rag.py : RAG 워크플로 구현

  • data/ : 문서 수집을 위한 디렉토리

  • storage/ : 벡터 저장소 및 문서 저장소

  • start_ollama.sh : Ollama 서비스를 시작하는 스크립트

RISC Zero Bonsai로 테스트

이 서버는 RISC Zero의 Bonsai 문서를 사용하도록 구성되어 있습니다. 다음 작업을 수행할 수 있습니다.

  1. data/ 디렉토리에 Bonsai 문서를 추가합니다.

  2. Bonsai 기능, 구현 세부 사항 및 사용법에 대한 문의

  3. 본사이 관련 질문을 통해 RAG 워크플로 테스트

proofofsid 가 ❤️로 만들었습니다

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/proofofsid/rag-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server