Skip to main content
Glama

RAG-MCP サーバー

RISC Zero の Bonsai ドキュメントを使用してテストできるように設計された、モデル制御プロトコル (MCP) を使用する汎用 Retrieval-Augmented Generation (RAG) サーバー。

概要

このプロジェクトでは、次の機能を備えた RAG サーバーを実装します。

  • 標準化された通信にMCP(モデル制御プロトコル)を使用する

  • ドキュメントクエリ用のRAG(検索拡張生成)ワークフローを実装します

  • RISC ZeroのBonsaiドキュメントでテスト可能

  • Ollama によるローカル LLM 統合をサポート

Related MCP server: Shared Knowledge MCP Server

特徴

  • ドキュメントの取り込みとインデックス作成

  • セマンティック検索機能

  • ローカルLLM統合

  • MCPプロトコル準拠

  • RISC Zero Bonsai ドキュメントサポート

前提条件

  • Python 3.12以上

  • Ollama(ローカルLLMサポート用)

  • 詩(依存関係の管理用)

インストール

  1. Python の依存関係をインストールします。

poetry install
  1. Ollama をインストールして起動します。

# Install Ollama brew install ollama # for macOS # or curl -fsSL https://ollama.com/install.sh | sh # for Linux # Start Ollama service ollama serve
  1. 必要なモデルをプルします。

ollama pull llama2

使用法

  1. MCP サーバーを起動します。

poetry run python mcp_server.py
  1. サーバーは次のことを行います。

    • LLMと埋め込みモデルを初期化する

    • データディレクトリからドキュメントを取り込む

    • RAGワークフローを使用してクエリを処理する

  2. RISC Zero Bonsai ドキュメントでテストします。

    • RISC Zero Bonsaiのドキュメントをdata/ディレクトリに置く

    • Bonsaiの機能と実装についてサーバーに問い合わせる

プロジェクト構造

  • mcp_server.py : メインサーバーの実装

  • rag.py : RAG ワークフロー実装

  • data/ : ドキュメント取り込み用のディレクトリ

  • storage/ : ベクトルストアとドキュメントストレージ

  • start_ollama.sh : Ollama サービスを起動するスクリプト

RISC Zero Bonsaiを使ったテスト

サーバーはRISC ZeroのBonsaiドキュメントと連携するように設定されています。以下のことが可能です。

  1. Bonsaiドキュメントをdata/ディレクトリに追加する

  2. Bonsaiの機能、実装の詳細、使用方法に関する問い合わせ

  3. Bonsai特有の質問でRAGワークフローをテストする

proofofsidが ❤️ を込めて作りました

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/proofofsid/rag-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server