Skip to main content
Glama

RAG MCP server

by proofofsid

RAG-MCP サーバー

RISC Zero の Bonsai ドキュメントを使用してテストできるように設計された、モデル制御プロトコル (MCP) を使用する汎用 Retrieval-Augmented Generation (RAG) サーバー。

概要

このプロジェクトでは、次の機能を備えた RAG サーバーを実装します。

  • 標準化された通信にMCP(モデル制御プロトコル)を使用する
  • ドキュメントクエリ用のRAG(検索拡張生成)ワークフローを実装します
  • RISC ZeroのBonsaiドキュメントでテスト可能
  • Ollama によるローカル LLM 統合をサポート

特徴

  • ドキュメントの取り込みとインデックス作成
  • セマンティック検索機能
  • ローカルLLM統合
  • MCPプロトコル準拠
  • RISC Zero Bonsai ドキュメントサポート

前提条件

  • Python 3.12以上
  • Ollama(ローカルLLMサポート用)
  • 詩(依存関係の管理用)

インストール

  1. Python の依存関係をインストールします。
poetry install
  1. Ollama をインストールして起動します。
# Install Ollama brew install ollama # for macOS # or curl -fsSL https://ollama.com/install.sh | sh # for Linux # Start Ollama service ollama serve
  1. 必要なモデルをプルします。
ollama pull llama2

使用法

  1. MCP サーバーを起動します。
poetry run python mcp_server.py
  1. サーバーは次のことを行います。
    • LLMと埋め込みモデルを初期化する
    • データディレクトリからドキュメントを取り込む
    • RAGワークフローを使用してクエリを処理する
  2. RISC Zero Bonsai ドキュメントでテストします。
    • RISC Zero Bonsaiのドキュメントをdata/ディレクトリに置く
    • Bonsaiの機能と実装についてサーバーに問い合わせる

プロジェクト構造

  • mcp_server.py : メインサーバーの実装
  • rag.py : RAG ワークフロー実装
  • data/ : ドキュメント取り込み用のディレクトリ
  • storage/ : ベクトルストアとドキュメントストレージ
  • start_ollama.sh : Ollama サービスを起動するスクリプト

RISC Zero Bonsaiを使ったテスト

サーバーはRISC ZeroのBonsaiドキュメントと連携するように設定されています。以下のことが可能です。

  1. Bonsaiドキュメントをdata/ディレクトリに追加する
  2. Bonsaiの機能、実装の詳細、使用方法に関する問い合わせ
  3. Bonsai特有の質問でRAGワークフローをテストする

proofofsidが ❤️ を込めて作りました

-
security - not tested
-
license - not tested
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

任意のカスタム ナレッジ ベースと統合され、カーソル IDE から直接トリガーできる RAG ワークフローを実装します。

  1. 概要
    1. 特徴
      1. 前提条件
        1. インストール
          1. 使用法
            1. プロジェクト構造
              1. RISC Zero Bonsaiを使ったテスト
                1. proofofsidが ❤️ を込めて作りました

                  Related MCP Servers

                  • A
                    security
                    A
                    license
                    A
                    quality
                    A simple template for creating custom tools for Cursor IDE using Model Context Protocol, deployable via Heroku, Docker, or directly within Cursor IDE.
                    Last updated -
                    2
                    Python
                    MIT License
                  • A
                    security
                    A
                    license
                    A
                    quality
                    A template for creating custom tools for Cursor IDE using Model Context Protocol that allows users to deploy their own MCP server to Heroku and connect it to Cursor IDE.
                    Last updated -
                    2
                    1
                    Python
                    MIT License
                    • Linux
                    • Apple
                  • A
                    security
                    A
                    license
                    A
                    quality
                    A template for creating custom tools for Cursor IDE using Model Context Protocol (MCP), allowing developers to extend Cursor's functionality with their own server-based tools.
                    Last updated -
                    11
                    2
                    Python
                    MIT License
                    • Apple
                    • Linux

                  View all related MCP servers

                  MCP directory API

                  We provide all the information about MCP servers via our MCP API.

                  curl -X GET 'https://glama.ai/api/mcp/v1/servers/proofofsid/rag-mcp'

                  If you have feedback or need assistance with the MCP directory API, please join our Discord server