Skip to main content
Glama

MCP RAG

by kalicyh

Server Configuration

Describes the environment variables required to run the server.

NameRequiredDescriptionDefault
OPENAI_MODELNoThe OpenAI model to usegpt-4o-mini
OPENAI_API_KEYYesYour OpenAI API key
OPENAI_API_BASENoThe base URL for OpenAI APIhttps://api.openai.com/v1
OPENAI_TEMPERATURENoThe temperature setting for OpenAI model0
OPENAI_EMBEDDING_MODELNoThe OpenAI embedding model to usetext-embedding-3-large

Schema

Prompts

Interactive templates invoked by user choice

NameDescription

No prompts

Resources

Contextual data attached and managed by the client

NameDescription

No resources

Tools

Functions exposed to the LLM to take actions

NameDescription
learn_text

向 RAG 知识库添加一段新文本以供将来参考。 使用场景:

  • 添加事实、定义或解释

  • 存储对话中的重要信息

  • 保存研究发现或笔记

  • 添加特定主题的上下文

参数: text: 要学习并存储在知识库中的文本内容。 source_name: 来源的描述性名称(例如 "user_notes", "research_paper", "conversation_summary")。

learn_document

使用高级非结构化处理技术(包含真正的语义分块)读取和处理文档文件,并将其添加到知识库。 当您想通过智能处理文档文件来训练人工智能时,可以使用此功能。

支持的文件类型:PDF、DOCX、PPTX、XLSX、TXT、HTML、CSV、JSON、XML、ODT、ODP、ODS、RTF、 图像(PNG、JPG、TIFF、带 OCR 的 BMP)、电子邮件(EML、MSG)以及超过 25 种格式。

高级功能:

  • 基于文档结构(标题、章节、列表)的 REAL 语义分块

  • 智能文档结构保存(标题、列表、表格)

  • 自动去噪(页眉、页脚、无关内容)

  • 结构化元数据提取

  • 适用于任何文档类型的强大回退系统

  • 通过语义边界增强上下文保存

使用示例:

  • 处理布局复杂的研究论文或文章

  • 从包含表格和列表的报告或手册中添加内容

  • 从带格式的电子表格导入数据

  • 将演示文稿转换为可搜索的知识

  • 使用 OCR 处理扫描文档

文档将通过 REAL 语义分块进行智能处理,并与增强的元数据一起存储。

将保存处理后文档的副本以供验证。

参数: file_path:要处理的文档文件的绝对路径或相对路径。

ask_rag

向 RAG 知识库提问,并根据存储的信息返回答案。 使用场景:

  • 询问特定主题或概念

  • 请求解释或定义

  • 从处理过的文档中获取信息

  • 基于学习的文本或文档获取答案

参数: query: 要向知识库提出的问题或查询。

ask_rag_filtered

向 RAG 知识库提问,并使用特定过滤器聚焦搜索。 使用场景:

  • 仅搜索 PDF 文档:file_type=".pdf"

  • 查找包含表格的文档:min_tables=1

  • 查找结构良好的文档:min_titles=5

  • 搜索增强处理的文档:processing_method="unstructured_enhanced"

参数: query: 要向知识库提出的问题或查询。 file_type: 按文件类型过滤(例如 ".pdf", ".docx", ".txt")。 min_tables: 文档必须包含的最小表格数量。 min_titles: 文档必须包含的最小标题数量。 processing_method: 按处理方法过滤(例如 "unstructured_enhanced", "markitdown")。

get_knowledge_base_stats

获取有关知识库的综合统计信息,包括文档类型、处理方法和结构信息。 使用场景:

  • 检查知识库中有多少文档

  • 了解文件类型的分布

  • 查看使用了哪些处理方法

  • 分析存储文档的结构复杂性

返回: 有关知识库内容的详细统计信息。

get_embedding_cache_stats

获取有关嵌入缓存性能的详细统计信息。 使用场景:

  • 检查缓存命中率以查看系统是否高效工作

  • 监控缓存的内存使用情况

  • 了解嵌入的重用频率

  • 调试性能问题

返回: 有关嵌入缓存性能的详细统计信息。

clear_embedding_cache_tool

清除嵌入缓存以释放内存和磁盘空间。 使用场景:

  • 在系统内存不足时释放内存

  • 在更改嵌入模型后重置缓存

  • 清除不再需要的旧缓存嵌入

  • 排查与缓存相关的问题

返回: 有关缓存清理操作的确认消息。

optimize_vector_database

优化向量数据库以提高搜索性能。 使用场景:

  • 搜索速度变慢

  • 添加了许多新文档

  • 希望提高系统的整体性能

返回: 有关优化过程的信息。

get_vector_database_stats

获取向量数据库的详细统计信息。 使用场景:

  • 检查数据库状态

  • 分析文档分布

  • 诊断性能问题

  • 规划优化

返回: 向量数据库的详细统计信息。

reindex_vector_database

使用优化配置重新索引向量数据库。 使用场景:

  • 更改配置文件

  • 搜索速度非常慢

  • 希望针对特定数据库大小进行优化

  • 存在持续的性能问题

参数: profile: 配置文件('small', 'medium', 'large', 'auto')。 'auto' 会自动检测最佳配置文件

返回: 有关重新索引过程的信息。

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/kalicyh/mcp-rag'

If you have feedback or need assistance with the MCP directory API, please join our Discord server