Skip to main content
Glama

MPC文档服务器

这是一个简单的 MCP(模型上下文协议)服务器,用于从 Langchain、Llama Index 和 OpenAI 的官方文档中检索信息。它提供了一个工具,可供兼容 MCP 的应用程序搜索和检索相关的文档片段。

Related MCP server: doc-lib-mcp

特征

  • **文档检索:**从 Langchain、Llama Index 和 OpenAI 的官方文档中获取内容。

  • **MCP 兼容性:**实现 MCP 服务器,使其能够轻松地与其他 MCP 兼容应用程序集成。

  • **简单工具:**公开一个接受查询和库名的get_docs工具,返回相关的文档片段。

工作原理

graph LR Client[MCP Client] -->|Calls tools| Server[MCP Server] Server -->|Searches web for docs| Serper[Serper API] Serper -->|Returns search results| Server Server -->|Returns documentation| Client

入门

安装 uv 包管理器

在 MacOS/Linux 上:

curl -LsSf https://astral.sh/uv/install.sh | sh

之后请确保重新启动终端以确保uv命令被接收。

项目设置

创建并初始化项目:

# Create a new directory for our project uv init mcp-server cd mcp-server # Create virtual environment and activate it uv venv source .venv/bin/activate # On Windows use: .venv\Scripts\activate # Install dependencies uv add "mcp[cli]" httpx python-dotenv bs4

环境变量

在根目录中创建一个.env文件并添加以下内容:

SERPER_API_KEY=YOUR_SERPER_API_KEY

您需要一个 SERPER API 密钥才能使用网页搜索功能。您可以从Serper.dev获取。我们使用 Serper API 在网络上搜索相关文档。

运行服务器

启动 MCP 服务器:

uv run main.py

服务器将启动并准备接受连接。

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/joaowinderfeldbussolotto/MCP-Websearch-Server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server