Skip to main content
Glama

MPC 문서 서버

Langchain, Llama Index, OpenAI 공식 문서에서 정보를 검색하는 간단한 MCP(Model Context Protocol) 서버입니다. MCP 호환 애플리케이션에서 관련 문서 조각을 검색하고 가져오는 데 사용할 수 있는 도구를 제공합니다.

Related MCP server: doc-lib-mcp

특징

  • 문서 검색: Langchain, Llama Index, OpenAI의 공식 문서에서 콘텐츠를 가져옵니다.

  • MCP 호환성: MCP 서버를 구현하여 다른 MCP 호환 애플리케이션과 쉽게 통합할 수 있습니다.

  • 간단한 도구: 쿼리와 라이브러리 이름을 받아 관련 문서 조각을 반환하는 get_docs 도구를 제공합니다.

작동 원리

지엑스피1

시작하기

uv 패키지 관리자 설치

MacOS/Linux의 경우:

curl -LsSf https://astral.sh/uv/install.sh | sh

uv 명령이 인식되도록 터미널을 다시 시작하세요.

프로젝트 설정

프로젝트를 생성하고 초기화합니다.

# Create a new directory for our project uv init mcp-server cd mcp-server # Create virtual environment and activate it uv venv source .venv/bin/activate # On Windows use: .venv\Scripts\activate # Install dependencies uv add "mcp[cli]" httpx python-dotenv bs4

환경 변수

루트 디렉토리에 .env 파일을 만들고 다음을 추가합니다.

SERPER_API_KEY=YOUR_SERPER_API_KEY

웹 검색 기능을 사용하려면 SERPER API 키가 필요합니다. Serper.dev 에서 받으실 수 있습니다. 저희는 Serper API를 사용하여 웹에서 관련 문서를 검색합니다.

서버 실행

MCP 서버를 시작합니다.

uv run main.py

서버가 시작되고 연결을 수락할 준비가 됩니다.

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/joaowinderfeldbussolotto/MCP-Websearch-Server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server