Skip to main content
Glama

Servidor RAG-MCP

Un servidor de recuperación-generación aumentada (RAG) de propósito general que utiliza el Protocolo de control de modelos (MCP), diseñado para ser probado con la documentación Bonsai de RISC Zero.

Descripción general

Este proyecto implementa un servidor RAG que:

  • Utiliza MCP (Protocolo de control de modelos) para la comunicación estandarizada

  • Implementa el flujo de trabajo RAG (Recuperación-Generación Aumentada) para la consulta de documentos

  • Se puede probar con la documentación Bonsai de RISC Zero

  • Admite la integración local de LLM a través de Ollama

Related MCP server: Shared Knowledge MCP Server

Características

  • Ingesta e indexación de documentos

  • Capacidades de búsqueda semántica

  • Integración local de LLM

  • Cumplimiento del protocolo MCP

  • Soporte de documentación de RISC Zero Bonsai

Prerrequisitos

  • Python 3.12+

  • Ollama (para soporte local de LLM)

  • Poesía (para la gestión de la dependencia)

Instalación

  1. Instalar dependencias de Python:

poetry install
  1. Instalar e iniciar Ollama:

# Install Ollama brew install ollama # for macOS # or curl -fsSL https://ollama.com/install.sh | sh # for Linux # Start Ollama service ollama serve
  1. Extraiga el modelo requerido:

ollama pull llama2

Uso

  1. Inicie el servidor MCP:

poetry run python mcp_server.py
  1. El servidor hará lo siguiente:

    • Inicializar el modelo LLM y de incrustación

    • Ingerir documentos desde el directorio de datos

    • Consultas de proceso mediante el flujo de trabajo RAG

  2. Prueba con la documentación de RISC Zero Bonsai:

    • Coloque la documentación de RISC Zero Bonsai en el directorio data/

    • Consultar al servidor sobre las características e implementación de Bonsai

Estructura del proyecto

  • mcp_server.py : Implementación del servidor principal

  • rag.py : Implementación del flujo de trabajo de RAG

  • data/ : Directorio para la ingesta de documentos

  • storage/ : Almacén de vectores y almacenamiento de documentos

  • start_ollama.sh : Script para iniciar el servicio Ollama

Pruebas con RISC Zero Bonsai

El servidor está configurado para funcionar con la documentación Bonsai de RISC Zero. Puedes:

  1. Agregue la documentación de Bonsai al directorio data/

  2. Consulta sobre las características, detalles de implementación y uso de Bonsai

  3. Pruebe el flujo de trabajo de RAG con preguntas específicas de Bonsai

Hecho con ❤️ por proofofsid

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/proofofsid/rag-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server